NOS Nieuws•
De overheid maakt al volop gebruik van AI-systemen. Zo experimenteert de Dienst Justitiële Inrichtingen met robothonden om cellen te inspecteren en gebruikt de Belastingdienst kunstmatige intelligentie om fraude op te sporen.
Maar de risico’s van het gebruik van AI-systemen worden vaak niet bekeken, blijkt uit een onderzoek van de Algemene Rekenkamer.
De overheid gebruikt of test in totaal 433 AI-systemen. Bij meer dan de helft daarvan wordt niet gekeken naar de mogelijke gevaren. Op dit moment zijn 120 AI-systemen actief in gebruik.
Niet transparant
Uit het onderzoek van de Rekenkamer blijkt verder dat slechts vijf procent van de AI-systemen in het openbare algoritmeregister vermeld staat. Dat register werd opgezet naar aanleiding van de toeslagenaffaire. Als gevolg van het gebruik van algoritmes werden duizenden gezinnen door de Belastingdienst onterecht beschuldigd van fraude.
Niet alle AI-systemen moeten in het algoritmeregister worden opgenomen, maar volgens Europese regels moeten alle systemen met een hoog risico uiterlijk in 2026 wel geregistreerd zijn.
Ewout Irrgang van de Rekenkamer is bang dat de risico’s worden onderschat: “Er is een prikkel om AI-systemen niet als hoog risico in te schatten.” Op die manier hoeven ze niet aan de strenge eisen van Europese regels te voldoen.
De Europese Unie noemt als voorbeeld van een hoogrisicosysteem een AI–toepassing die inschat of iemand een risico vormt om een misdrijf te plegen. Zulke systemen moeten regelmatig worden gecontroleerd om er zeker van te zijn dat de uitkomsten nauwkeurig en niet-discriminerend zijn.
De meeste AI-systemen kregen van de overheid de kwalificatie ‘minimaal risico’. “Dit betekent niet dat deze AI-systemen geen risico’s hebben. Risico’s zoals privacyschendingen blijven aanwezig”, zegt de Rekenkamer.
Ook blijkt dat bij ruim een derde van de actieve AI-systemen onduidelijk is of ze echt doen wat ze zouden moeten doen.
Robothonden
De overheid gebruikt AI onder meer om efficiënter te werken en om personeelstekorten op te vangen. Vaak gaat het om interne processen zoals het automatisch notuleren van vergaderingen, maar er zijn ook systemen die mensen direct raken.
Een voorbeeld is de Slimme Keuzehulp van de politie, een AI-tool die mensen helpt bij het doen van aangifte van online-oplichting.
Het UWV gebruikt de Maatwerkscan, een tool die voorspelt wie mogelijk in de financiële problemen komt als de uitkering stopt, zodat op tijd hulp kan worden aangeboden.
De Belastingdienst en de Nederlandse Voedsel- en Warenautoriteit (NVWA) gebruiken AI-risicomodellen om fraude op te sporen. Deze systemen analyseren gegevens om te zien waar de kans op belastingontduiking of misbruik van subsidies het grootst is.
De Dienst Justitiële Inrichtingen (DJI) maakt op een opvallende manier gebruik van AI: daar wordt met robothonden geëxperimenteerd die cellen inspecteren.
Risico’s
Irrgang van de Algemene Rekenkamer erkent dat AI veel potentie heeft om overheidsdiensten te verbeteren, maar waarschuwt voor serieuze risico’s, zoals discriminatie en privacyschendingen. “Een goed functionerende en presterende rijksoverheid vereist dus een verantwoorde inzet van AI, waarbij de kansen benut worden en de risico’s worden beheerst.”
Volgens de Rekenkamer is het belangrijk dat er duidelijkheid komt over de inzet van AI. Pas als bekend is waar de overheid AI voor gebruikt en wat de voordelen en risico’s zijn, kan ze ervoor zorgen dat AI op een verantwoorde manier wordt gebruikt.