SocialTechnologyLab

Impact Assessment
Mensenrechten & Algoritmes (IAMA)

De achtergrond

Het zou haast onmogelijk zijn om de afgelopen jaren in Nederland te hebben gewoond zonder iets mee te krijgen van de verschillende affaires die grote maatschappelijke gevolgen hadden. Denk aan de Toeslagenaffaire, waar duizenden gezinnen onterecht als fraudeur werden bestempeld, of de DUO-kwestie rondom onterechte terugvorderingen. Niet alleen hebben deze gebeurtenissen verwoestende gevolgen gehad voor de direct getroffenen, maar ze hebben ook het vertrouwen in de overheid én in de technologie die bij deze processen werd ingezet zwaar beschadigd.

Deze affaires roepen verschillende urgente vragen op: hoe kunnen we voorkomen dat technologie leidt tot ongelijkheid en mensenrechtenschendingen? Hoe zorgen we ervoor dat algoritmes niet alleen efficiënt, maar ook ethisch verantwoord worden ingezet?

Hier biedt het Impact Assessment Mensenrechten en Algoritmes (IAMA) een antwoord. Dit instrument, ontwikkeld door de Universiteit Utrecht in opdracht van het Ministerie van Binnenlandse Zaken, stelt organisaties in staat om algoritmes systematisch te toetsen op impact op mensenrechten. Het helpt niet alleen om juridische en ethische risico’s in kaart te brengen, maar ook om de keuzes die gemaakt worden transparant te maken en accountability te bevorderen.

IAMA: heel concreet

Dat klinkt allemaal nog best vaag: een instrument wat algoritmes systematisch toetst? Hoe ziet dat er dan uit?

Heel concreet is de IAMA een document van ongeveer 100 pagina’s, gevuld met vragen die in een multidisciplinaire discussie beantwoord moeten worden. Deze vragen zijn ontworpen om organisaties te helpen kritisch na te denken over de maatschappelijke impact van algoritmes en ervoor te zorgen dat mensenrechten worden gerespecteerd. Het is een gestructureerd document dat voorkomt dat belangrijke overwegingen over het hoofd worden gezien. Het IAMA is verdeeld in vier hoofdonderdelen, die elk een specifieke fase van het gebruik van algoritmes behandelen:

Waarom? Hier wordt gekeken naar de aanleiding en doelstellingen voor het gebruik van een algoritme. Wat is het probleem dat je wilt oplossen, en waarom is een algoritme daarvoor het beste middel? Dit deel helpt om te voorkomen dat een algoritme wordt ingezet zonder een duidelijke en verantwoorde rechtvaardiging.

Wat? Dit deel gaat in op de data en de technische keuzes die worden gemaakt. Het behandelt vragen over de kwaliteit van de data, mogelijke bias, en hoe het algoritme werkt. Hier wordt ook besproken welke maatregelen nodig zijn om de veiligheid en transparantie te waarborgen.

Hoe? In dit onderdeel staat de implementatie centraal. Hoe wordt het algoritme gebruikt, welke beslissingen worden erop gebaseerd, en hoe zorg je voor menselijke controle? Hier gaat het ook over de context waarin het algoritme wordt toegepast en hoe je mogelijke negatieve effecten kunt voorkomen.

Mensenrechten Dit deel van de IAMA richt zich expliciet op het meenemen van mensenrechten en grondrechten, zoals privacy, gelijke behandeling en het recht op een eerlijk proces. Het helpt organisaties risico’s te identificeren en af te wegen of mogelijke inbreuken gerechtvaardigd zijn. Denk bijvoorbeeld aan het risico dat een algoritme leidt tot discriminatie door vooringenomen data, of dat burgers geen inzicht hebben in hoe een besluit tot stand is gekomen. Door deze vragen systematisch te beantwoorden, waarborgt de IAMA dat mensenrechten centraal staan in elke stap van de ontwikkeling en inzet van een algoritme.

Elke vraag in de IAMA is bedoeld om een discussie op gang te brengen tussen betrokkenen met verschillende expertises. Denk aan juristen, ethici, data scientists en beleidsmakers. Door samen deze vragen te beantwoorden, ontstaat een compleet beeld van de risico’s, voordelen en maatschappelijke implicaties van een algoritme.

IAMA: dus wat nu?

Zoals eerder genoemd, hebben de recente affaires in Nederland het belang van verantwoord gebruik van technologie pijnlijk duidelijk gemaakt. De IAMA biedt een praktisch raamwerk om deze verantwoordelijkheid concreet vorm te geven. Maar waarom is dit instrument zo onmisbaar?

Herstel van vertrouwen IAMA dwingt organisaties om transparante en verantwoorde keuzes te maken bij de inzet van technologie. Dit is een cruciale stap om het vertrouwen van burgers in zowel technologie als de overheid te herstellen.

Voorkomen van mensenrechtenschendingen Door expliciet mensenrechten mee te nemen in elke fase van het gebruik van algoritmes, helpt IAMA organisaties om fouten en schendingen te voorkomen voordat ze kunnen escaleren.

Versterken van accountability Het proces van het beantwoorden van IAMA-vragen legt vast welke keuzes zijn gemaakt en waarom. Dit maakt niet alleen interne discussies transparanter, maar biedt ook een solide basis voor publieke verantwoording.

Voorbereiding op toekomstige regelgeving Met de komst van strengere wetten, zoals de Europese AI Act, zorgt IAMA ervoor dat organisaties nu al werken volgens hoge ethische en juridische standaarden.

Door tools zoals de IAMA in te zetten, laten organisaties zien dat zij niet alleen efficiëntie nastreven, maar ook verantwoordelijkheid nemen voor de maatschappelijke impact van hun technologie. En in een tijd waarin algoritmes steeds meer invloed hebben, is dat misschien wel belangrijker dan ooit.

Geinteresseerd? Stuur ons een mailtje: khaled@socialtechnologylab.nl

Social Technology Lab logo

SocialTechnologyLab

© 2025 Social Technology Lab
KVK: 93608411