Nieuws Over Informatie Gesproken
Overheden moeten burgers proactief informeren over de risico’s van algoritmische profilering.
.png)
Algoritmes zijn voor veel mensen een soort toverformules in een zwarte doos; ze hebben geen idee hoe ze werken. Maar ondertussen worden algoritmes gebruikt bij belangrijke beslissingen zoals bijvoorbeeld het toekennen van een uitkering.
“We moeten burgers proactief informeren over de verwerking van hun gegevens voor profileringsdoeleinden.”
1. Welk probleem moet het onderzoek oplossen?
‘Overheden, zoals gemeenten, informeren burgers onvoldoende en niet-proactief over het gebruik van profileringsalgoritmes bij besluiten. De AVG (Algemene Verordening Gegevensbescherming) biedt burgers inzagerechten, maar dit wordt weinig toegepast.’ Een voorbeeld is het gebruik van een algoritme door DUO bij de controle op de uitwonende studiebeurs: het systeem selecteerde studenten die mogelijk fraudeerden, maar ambtenaren beseften niet dat daardoor werd gediscrimineerd: studenten met een mbo-opleiding of die dichter bij hun ouders woonden, eerder als verdachte van fraude gezien. De studenten waren niet geïnformeerd over hoe hun gegevens waren verwerkt en konden zij zich niet verweren. Het onderzoek wil dit soort situaties voorkomen door overheden beter toe te rusten op het herkennen, toepassen en uitleggen van profileringsalgoritmes en het AVG-kader in de praktijk. Dit versterkt de verantwoording van overheden en zorgt voor meer transparantie in het gebruik van algoritmes.’
2. Voor wie zijn de uitkomsten van het onderzoek bedoeld?
‘Voor drie verschillende groepen: juridische professionals, ambtenaren en het brede publiek. Voor juridische en wetenschappelijke professionals is het artikel ‘Rechtsbescherming tegen risicoprofilering op basis van de AVG, het EVRM en het Handvest’ verschenen in het Nederlands Juristenblad. Hierin wordt uitgelegd hoe artikel 22 van de AVG moet worden geïnterpreteerd. Artikel 22 van de AVG beschermt mensen tegen uitsluitend automatische besluitvorming met aanzienlijke gevolgen. Een voorbeeld is het recente Schufa-arrest dat werd uitgesproken in 2022 door het Europese Hof van Justitie. Het betrof een zaak over de manier waarop kredietinformatiebureaus, zoals Schufa, gegevens gebruiken om risicoprofielen te maken voor het verstrekken van leningen. Het arrest ging over de vraag of dergelijke automatische besluitvorming in strijd was met de privacywetgeving van de EU. Het hof oordeelde toen dat automatische besluitvorming op basis van risicoprofielen met significante gevolgen voor individuen onder de bescherming valt van de AVG, en dat er altijd duidelijke uitleg moet zijn over hoe deze systemen werken. De Autoriteit Persoonsgegevens (AP) heeft in oktober 2024 geadviseerd dat bestuursorganen onder voorwaarden wel mogen profileren, ook zonder specifieke wetgeving. Het kabinet heeft dat advies overgenomen en besloten geen rijksbrede controle uit te voeren op het gebruik van algoritmen. In het artikel wordt betoogd dat dit een verkeerde koers is, overheid moeten juist transparanter zijn over hoe profilering invloed heeft op hun besluiten.”
Voor ambtenaren is er een visueel toegankelijke Roadmap ontwikkeld die uitlegt hoe zij juridisch verantwoord met profileringsalgoritmes kunnen omgaan. De Roadmap is afgestemd op verschillende functies binnen overheidsorganisaties, zoals privacy officers, bestuursrechtjuristen, Chief Information Officers en communicatieadviseurs, en biedt per rol relevante handvatten voor naleving van de AVG en voor het verbeteren van de interne informatievoorziening. Zo is bijvoorbeeld maar weinig bekend dat het begrijpelijk en beknopt communiceren ook een wettelijke verplichting op grond van de AVG is. Dit soort inzichten kan een communicatieafdeling ook weer helpen om hier een prioriteit van te maken.’
‘Tot slot is er een publieksdocument voor burgers, waarin op toegankelijke wijze wordt uitgelegd hoe en wanneer zij inzage kunnen vragen in hun gegevens en welke vragen zij kunnen stellen als zij vermoeden dat profilering is toegepast. Door de vele profileringsschandalen die in de media zijn gekomen, zijn burgers alerter op deze mogelijkheid, zeker als het gaat om toeslagen of uitkeringen. Inzicht in het gebruik van algoritmes door de overheid versterkt niet alleen de rechtspositie van burgers, maar stimuleert overheden ook om hun eigen informatieprocessen te verbeteren.’
3. Op welke manier is het project vernieuwend?
‘Het ‘op een rijtje zetten’ van het, zij het beknopt, juridisch kader op een manier die rekening houdt met inzichten uit de literatuur (bijv. die over informatievoorziening over algoritmen) is op zichzelf al vernieuwend – het gegeven dat we dat op meerdere niveaus doen nog in sterkere mate. Los van het onderwerp, gebeurt het nog niet vaak genoeg dat een juridisch kader wordt uitgelegd aan burgers en aan niet-juridisch geschoolde ambtenaren. Op deze manier wil het project handen en voeten geven aan het vaak genoemde inzicht dat a) burgers meer betrokken moeten worden bij de hele levenscyclus van algoritmen en b) interdisciplinaire samenwerking tussen juristen en technisch geschoolden essentieel is voor een verantwoorde inzet van algoritmen.’
4. Wat waren uitdagingen tijdens het onderzoek?
‘Tijdens de interviews bleek dat kennis over concrete algoritmen vaak ook binnen een gemeente erg versnipperd is. Dit inzicht hebben we meegenomen in onze eindproducten, bijvoorbeeld door in de Roadmap expliciet te maken welke partijen (juristen, technici, data-ethici en beslismedewerkers) moeten samenwerken als dat de profilering door de gemeente zelf wordt verricht (in plaats van dat deze wordt uitbesteed aan Stichting Inlichtingenbureau dat gemeenten ondersteunt bij de bepaling of mensen met een te laag inkomen of vermogen onder bepaalde voorwaarden in aanmerking komen voor een uitkering of een aanvullende voorziening, zoals bijzondere bijstand). Het betekende ook dat we meer dan verwacht naar bestaande literatuur hebben moeten kijken; gelukkig is er steeds meer literatuur die praktische en concrete inzichten over profileringsalgoritmes biedt. Verder was het nog best een uitdaging voor het Publieksdocument om het juridisch kader in klare taal uit te leggen zonder aan de juridische details voorbij te gaan. Aangezien het document erop gericht is burgers in staat te stellen zelf voor hun rechten op te komen, zijn die juridische details toch vaak belangrijk. We hebben er daarom voor gekozen om a) jargon goed uit te leggen in tekstkaders en b) te accepteren dat de tekst niet volledig op B2-niveau kan zijn. Ook gebruikers die niet alle onderdelen kunnen volgen, kunnen praktische tips uit het document halen.”
5. Naar aanleiding van het wetenschappelijk artikel zijn er onlangs Kamervragen ingediend door Michiel van Nispen (SP) over het bericht dat bestuursorganen risicoprofilering mogen toepassen zonder specifieke wetgeving. Wat hopen jullie dat hieruit komt?
“Het zal nog enige tijd duren voordat de antwoorden beschikbaar zijn, maar we zijn in ieder geval blij dat de resultaten van dit MCOIG-onderzoek direct politieke weerklank heeft gevonden. Uit ons onderzoek blijkt dat je pas kunt bepalen of een automatisch besluit – gebaseerd op risicoprofielen – verboden is, als duidelijk is wat de gevolgen zijn voor de persoon in kwestie. Dat blijkt uit het eerdergenoemde Schufa-arrest. De overheid moet dus actief uitleggen hoe risicoprofielen invloed hebben op hoe ambtenaren werken, omdat deze profielen direct impact kunnen hebben op de beslissingen die zij nemen, en hoe de resultaten van risicoprofilering worden hergebruikt. Zonder die informatie over de gevolgen van risicoprofilering, is het niet mogelijk om te zeggen of de privacywet (artikel 22 van de AVG) wel of niet wordt overtreden. Toch besloot het kabinet om een verzoek van de Tweede Kamer om algoritmes openbaar te maken af te wijzen. Daarbij verwees het naar een advies van de Autoriteit Persoonsgegevens, die stelt dat deze systemen niet onder artikel 22 vallen. Een opmerkelijke conclusie, want zolang niet duidelijk is wat de risicoprofielen in de praktijk doen, kun je niet zomaar stellen dat risicoprofilering niet in strijd is met artikel 22.”