Navigeren in het vraagstuk van AI-verantwoordelijkheid
Als je de impact van Kunstmatige Intelligentie (AI) in de echte wereld wilt begrijpen, kijk dan niet alleen naar de technologie. Kijk naar de context. Dit is de kernfilosofie van Nanou van Iersel, een promovendus bij het AI MAPS-project aan de Erasmus Universiteit Rotterdam.
AI MAPS maakt deel uit van het Nederlandse netwerk van ELSA-labs – samenwerkingsruimtes waar onderzoekers, overheid, industrie en burgers gezamenlijk de ethische, juridische en maatschappelijke aspecten van AI in de praktijk onderzoeken. Het doel is om van elkaar te leren over de mogelijkheden en beperkingen van AI en, of en hoe verantwoordelijkheid hierdoor wordt beïnvloed. Het werk van Nanou verdiept zich in het rommelige tussengebied tussen negatieve en positieve effecten, de specifieke, dagelijkse contexten waarin AI wordt ingezet en de ingewikkelde vraag wie verantwoordelijk is wanneer dingen goed of fout gaan.
Verantwoordingsplicht in de praktijk
“Op een algemeen niveau is het makkelijk om te zeggen dat we verantwoordingsplicht voor AI nodig hebben,” legt Nanou uit. „Maar het is pas op concreet, contextueel niveau dat je de complexiteit ziet.” Wat bedoelen we eigenlijk met verantwoordingsplicht? In het geval van fouten door AI, kan één persoon of organisatie redelijkerwijs verantwoordelijk worden gehouden? Hoe structureert de bestaande wetgeving verantwoordelijkheid, en komt dat overeen met de realiteit van hoe deze nieuwe technologieën werken?
Deze focus is cruciaal omdat AI niet langer toekomstmuziek is. “AI en digitale technologieën beïnvloeden iedereen,” merkt ze op. “De openbare ruimte zit er vol mee, van camera’s met automatische kentekenherkenning op snelwegen tot slimme deurbelnetwerken in wijken. We moeten deze toekomst actief vormgeven, in plaats van dat het ons overkomt, geleid door technologiebedrijven die hun idealen op onze samenleving projecteren.”
Van scepticisme naar nuance
Een van de meest verrassende bevindingen van haar werk was haar eigen veranderende perspectief.
“Ik begon dit project vooral anti-AI,” geeft ze toe. Door talloze interacties met belanghebbenden, interviews en observaties werd haar kijk echter genuanceerder. “Na het zien van veel voorbeelden uit de praktijk, zie ik nu dat er ook gevallen zijn waarin AI en andere digitale technologieën wenselijk zijn. Ik blijf kritisch (en hoop nog steeds een beetje dat we in een wereld met minder toezicht zouden leven), maar ik kan het potentieel in specifieke contexten begrijpen, zoals het gebruik van AI voor milieubescherming.”
Verantwoording en ‘functie-uitbreiding‘
Haar onderzoek naar cameratoezicht laat zien hoe rommelig verantwoording in de praktijk kan worden.
Camera’s worden vaak geïnstalleerd voor een specifiek doel, zoals het monitoren van verkeer. Maar eenmaal geplaatst, leggen ze onvermijdelijk veel meer vast. Dit verschijnsel, bekend als ‘functie-uitbreiding’, creëert juridische en ethische grijze zones.
“Camera’s filmen alles binnen het bereik van hun lenzen, niet alleen datgene waarvoor ze oorspronkelijk bedoeld waren,” merkt Nanou op. “Is het toegestaan om te handelen op basis van een misdrijf dat door een camera is vastgelegd die niet voor dat doel was geïnstalleerd? Dit is een probleem dat wereldwijd inherent is aan camera’s.”
Haar werk brengt in kaart hoe functie-uitbreiding zich in de praktijk ontvouwt en daagt wetshandhavers en beleidsmakers uit om de kloof in verantwoording tussen de oorspronkelijke rechtvaardiging van een camera en de feitelijke mogelijkheden ervan onder ogen te zien.
De waarde van ‘meerdere manieren van weten‘
Wat Nanou aantrok tot AI MAPS was niet alleen technologie, maar het project’s toewijding aan epistemische inclusie; het idee dat er meerdere, even geldige manieren van weten zijn.
“Er is kennis uit ervaring, uit beroep, uit kunst, of inheemse kennis,” zegt ze. “Ik geloof in de gelijkheid van verschillende kennispraktijken. Ik vind het fijn dat AI MAPS dit als uitgangspunt neemt door te proberen te leren van andere belanghebbenden en hen onze onderzoeksvragen te laten vormgeven.”
Deze filosofie zorgt ervoor dat haar onderzoek naar verantwoording niet alleen gebaseerd is op wet- en regelgeving en theorie, maar ook op de geleefde ervaringen van degenen die door AI worden beïnvloed.
Een nuchter perspectief
Wanneer ze niet bezig is met het ontrafelen van de complexiteit van AI en de wet, is Nanou waarschijnlijk bezig zichzelf te ontwarren uit een ander soort complexiteit: de jungle. Ze is onlangs teruggekeerd van een lange vakantie in Suriname en Frans-Guyana, een scherp contrast met de wereld van digitale technologie. “Het was een schok na zoveel tijd in een tropisch klimaat, weg van mijn laptop,” zegt ze, “maar nooit weg van boeken”.
Deze balans tussen diep kritisch denken en een verbinding met de bredere wereld is misschien wat haar aanpak zo waardevol maakt. In een vakgebied dat wordt gedomineerd door ofwel kritiekloze hype of algehele veroordeling, biedt Nanou een zeldzaam en essentieel perspectief: dat van de kritische deelnemer, die vraagt “waarom” en “voor wie” om ervoor te zorgen dat de toekomst van AI verantwoording aan ons allemaal aflegt.

Bron: From sceptic to scholar, a PhD researcher navigates AI’s accountability problem
Photo credits: iStock Adrii Yalansky