Nauwelijks zicht op ‘zwarte zoemende dozen’ van overheid: ‘Algoritmeregister wassen neus’

File:Tarjan’s Algorithm Animation.gif” by LynX is licensed under CC BY-SA 3.0

Het algoritmeregister, dat de overheid transparanter moet maken, wordt een half jaar na de lancering nauwelijks ingevuld. En de informatie die er wel instaat, is niet erg toegankelijk.

In het register maken overheidsinstellingen, bijvoorbeeld gemeentes en ministeries, openbaar hoe ze tot (semi-)geautomatiseerde besluiten komen. Het algoritmegebruik door de overheid ligt onder een vergrootglas door de toeslagenaffaire, waarin dubbele nationaliteit werd meegewogen in een algoritme voor risicoanalyse van toeslagaanvragen.

Bij de lancering in december 2022 stonden er 109 algoritmes op de website. Die kwamen van instellingen die de informatie al eerder online hadden gezet. Een half jaar later zijn het er 123. Het register invullen is (nog) niet verplicht.

“Het algoritmeregister zoals het er nu is, is eigenlijk een wassen neus”, zegt onderzoeker Iris Muis van de Data School van de Universiteit Utrecht. “Ten eerste vullen lang niet alle instanties het register in en als ze het wel invullen, blijft er veel onduidelijk.”

Een algoritme is een instructie, een code, waarmee een computer een probleem moet oplossen. Als iemand bijvoorbeeld 10 kilometer te snel rijdt, berekent een model de boete. Maar het kan ook complexer: aan de hand van verschillende kenmerken (leeftijd, inkomen, postcode) zou een model kunnen berekenen hoe groot de kans is dat iemand fraudeert. In de data die je in een algoritme stopt, kunnen vooroordelen zitten. Dat kan leiden tot discriminatie.

In het coalitieakkoord is afgesproken dat algoritmes wettelijk gecontroleerd moeten worden op discriminatie en willekeur. “Een belangrijke voorwaarde daarvoor is transparantie over algoritmes en hun toepassing,” schreef verantwoordelijk staatsecretaris Alexandra van Huffelen. “Het algoritmeregister kan een belangrijke bijdrage leveren aan het beter uitlegbaar maken van de toepassing en de uitkomst van algoritmes.”

Om te bepalen of een algoritme bijvoorbeeld discrimineert, moet je weten op basis van welke kenmerken burgers worden geselecteerd. Maar dat soort gegevens worden niet vrijgegeven, omdat dat fraudeurs zou kunnen helpen om het systeem te omzeilen. Maar dat gevaar ziet juridisch adviseur en onderzoeker Mariette Lokin niet. “De regels die je toepast, daar moet je open over zijn. Dus je moet als overheid vertellen dát en wát je controleert. Precieze grenswaarden waarop mensen hun gedrag kunnen afstemmen, kun je achterwege laten.”