Ga naar inhoud
  • Drifter
    Drifter

    De Nederlandse overheid neemt risico's met volop gebruiken van AI-systemen

    De Nederlandse overheid maakt volop gebruik van kunstmatige intelligentie (AI), zo blijkt uit recent onderzoek van de Algemene Rekenkamer. Vooral de Nationale Politie en het UWV zijn flinke gebruikers van deze technologie. Ondanks de brede inzet van AI zijn veel van de risico’s die hiermee gepaard gaan nog onvoldoende in kaart gebracht.

    Volgens de Algemene Rekenkamer zijn er momenteel in Nederland 433 AI-systemen in gebruik of in testfase bij overheidsinstanties. Van deze systemen zijn er 120 daadwerkelijk operationeel, terwijl 167 systemen zich nog in de experimentele fase bevinden.

    Van de 69 onderzochte overheidsorganisaties maken 55 gebruik van AI-systemen. Veertig van deze organisaties zetten AI actief in voor hun bedrijfsprocessen, terwijl vijftien organisaties alleen experimenteren met AI en veertien helemaal geen AI gebruiken. De grootste gebruikers van AI zijn de Politie met 23 systemen en het UWV met tien systemen. Gemiddeld gebruiken overheidsorganisaties niet meer dan drie AI-systemen.

    De inzet van AI is vooral gericht op het verbeteren van interne processen die weinig impact hebben op burgers en bedrijven, met als doel tijd en geld te besparen. Voorbeelden zijn het efficiënt doorzoeken en verwerken van grote hoeveelheden data, het transcriberen van gesprekken, en het anonimiseren of sneller doorzoeken van documenten.

    Desondanks concludeert de Algemene Rekenkamer dat de risico’s van AI-gebruik door de overheid niet voldoende worden onderkend. Voor de helft van de AI-systemen die door overheidsinstanties zijn gebruikt, is geen risicoanalyse gemaakt. Dit geldt ook voor een derde van de AI-systemen die als ‘hoog risico’ zijn geclassificeerd. 

    De manier waarop risico's van AI-systemen worden beoordeeld is vaak niet uniform. Overheidsinstanties hanteren verschillende methoden voor risico-inschatting, waaronder privacy-toetsen en zelfontwikkelde risicoanalyses. Er bestaat geen rijksbreed instrument om risico's systematisch te evalueren.

    De risico's van AI-systemen worden vaak als ‘minimaal’ ingeschat. De Algemene Rekenkamer waarschuwt echter dat dit niet betekent dat deze systemen volledig risicoloos zijn. Voorbeelden van risico’s kunnen privacyschendingen, inadequate informatiebeveiliging of de mogelijkheid van negatieve gevolgen voor burgers en bedrijven door vooroordelen zijn.

    Bovendien zijn slechts vijf procent van de gebruikte AI-systemen geregistreerd in het Algoritmeregister. In ongeveer 35% van de gevallen is het voor overheidsinstanties onduidelijk of de AI-systemen daadwerkelijk aan de verwachtingen voldoen, vaak omdat het doel van het gebruik niet vooraf duidelijk is vastgesteld.

    In reactie op het onderzoek heeft staatssecretaris Zsolt Szabó (PVV) van BZK en Koninkrijksrelaties aangegeven dat de overheid momenteel bezig is met het screeneren van de gebruikte AI-systemen op mogelijke risico's en hiervoor passende maatregelen te ontwikkelen. Dit gebeurt in overeenstemming met de recent in werking getreden Europese AI Act. De overheid werkt ook aan de registratie van AI-systemen in het Algoritmeregister, waarbij ervoor moet worden gezorgd dat uiterlijk aan het eind van het jaar alle AI-systemen met hoog risico in dat register zijn opgenomen.

    Door: Drifter




    Feedback Gebruiker

    Aanbevolen Reacties

    Er zijn geen reacties om weer te geven.



    Log in om te reageren

    Je kunt een reactie achterlaten na het inloggen



    Login met de gegevens die u gebruikt bij softtrack

×
×
  • Nieuwe aanmaken...