Proposals Over Informatie Gesproken
Transparante algoritmen: van black box naar vijf sterren

Hoewel het lijkt alsof de inzet van algoritmes door de overheid iets nieuws is, gebruikt de overheid al ruim 20 jaar algoritmische systemen. Mede door het toeslagenschandaal groeit de bezorgdheid over de negatieve gevolgen voor burgers. Een belangrijke oorzaak van dat schandaal was de ondoorzichtigheid van gebruikte systemen. Begrijpt de overheid zelf eigenlijk hoe de algoritmes werken, en of de conclusies die daaruit volgen te verdedigen zijn? Mike Lensink, AI-ethicus bij The Green Land, doet hier onderzoek naar met financiering vanuit Over Informatie Gesproken.
1. Wat was de aanleiding voor jullie onderzoek?
‘De overheid heeft te weinig grip op de steeds complexere algoritmes die zij inzet voor cruciale beslissingen, zoals het toekennen van toeslagen of het opsporen van fraude. Een belangrijke reden daarvoor is dat overheidsorganisaties weinig inzicht hebben in de gegevens die commerciële partijen gebruiken om voorspellende modellen te trainen. Deze bedrijven beschouwen de datasets als onderdeel van hun verdienmodel en beroepen zich op intellectueel eigendom. Ik vergelijk het vaak met de ontspoorde Fyra-treinen in2013: stel je voor dat je na een ramp niet mag onderzoeken wat er fout ging, omdat de fabrikant geen inzage geeft in de technologie. De overheid moet kunnen verantwoorden welke technologie ze inzet, en burgers hebben het recht om te weten hoe besluiten over hen tot stand komen. Bij algoritmes is dat extra ingewikkeld. Niet alleen geven bedrijven weinig openheid over de data en keuzes die aan het ontwerp van systemen ten grondslag liggen, ook zijn veel AI-systemen– vooral die gebaseerd op neurale netwerken – zó complex dat zelfs experts moeite hebben de werking ervan te begrijpen. Laat staan dat een ambtenaar of burger kan nagaan hoe een besluit tot stand kwam. Dit gebrek aan transparantie ondermijnt zowel de controle door de overheid als het vertrouwen van burgers.
2. Hoe zijn jullie te werk gegaan?
‘We voerden een kwalitatief onderzoek uit via interviews met ambtenaren, technici, maatschappelijke organisaties en burgers. De centrale vraag: wat is waardevolle, begrijpelijke en betekenisvolle informatie over algoritmes? Daarnaast organiseerden we een burgerforum waarin mensen, ondersteund door experts, adviseerden over transparantie en waarden. Daar uitbleek dat burgers vooral willen weten wanneer een algoritme gebruikt wordt dat hen raakt, welke gevolgen dat heeft, en hoe die gevolgen tot stand komen. Dit biedt overheden duidelijke handvatten voor beleid en uitvoering.’
3. Hoe draagt jullie onderzoek bij aan meer kennis bij de overheid?
‘Onze bevindingen hebben we vertaald naar een praktische toolkit die bestuurders helpt om gesprekken over transparantie binnen hun organisatie te starten. Het begrip ‘transparantie’ roept vaak vragen op over privacy, veiligheid en haalbaarheid. Hoewel er veel tools en richtlijnen zijn rondverantwoorde AI, blijven deze vaak te abstract. Ambtenaren weten daardoor niet goed wat ze concreet moeten doen. Onze toolkit biedt daarom niet alleen kennis, maar introduceert ook een beoordelingssysteem: het 5-sterrenmodel voor openalgoritmes, geïnspireerd op het bekende model voor open data van Tim Berners-Lee. Met dit model kunnen overheden inschatten hoe transparant hun algoritmische systemen momenteel zijn, en in welke stappen ze verdere openheidrichting burgers kunnen realiseren. Elke ‘ster’ vertegenwoordigt een staprichting meer transparantie, waarbij rekening gehouden wordt met de unieke context van elke organisatie. Zo kan met beperkte middelen gericht gewerkt worden aan verbetering.’
4. Hoe werkt het 5-sterrenmodel inde praktijk?
‘Een overheidsorganisatie kan bijvoorbeeld nagaan welke algoritmes zij gebruikt (bijvoorbeeld via het Algoritmeregister). Vervolgens wordt per algoritme beoordeeld hoeveel transparantie er al is: is het algoritme gepubliceerd? Wordt er duidelijk gemaakt welk soort algoritme het is? Is het getoetst op discriminatie? Misschien is een algoritme wel opgenomen in het register, maar ontbreekt uitleg over hoe het werkt of wat de gevolgen zijn. Dan is het helder waar verbetering nodig is. Het model fungeert als een meetlat, die inzichtelijk maakt waar een organisatie staat en welke vervolgstappen nodigzijn. Soms zijn er goede redenen om niet volledig transparant te zijn, bijvoorbeeld omwille van veiligheid – maar ook dan dwingt het modelorganisaties om die keuze te onderbouwen en verantwoording af te leggen.’
5. Hoe zorgen jullie dat de overheid de toolkit ook echt gaat gebruiken?
‘Na de ontwikkeling van de toolkit gaan we actief in gesprek met bestuurders en beleidsmakers. Dankzij samenwerking met burgers, overheden, maatschappelijke organisaties en bedrijven hebben we draagvlak gecreëerd voor het model. En in plaats van een papieren rapport hebben we gekozen voor een toegankelijke website, zodat de toolkit breed en laagdrempelig beschikbaar is. We hopen dat het model bijdraagt aan meer bewustwording én actie: dat overheden verantwoordelijkheid nemen, openheid bieden en zo het vertrouwen van burgers terugwinnen.’