calendar tag arrow download print
Doorgaan naar inhoud

Beleidsmakers denken samen na over toepasbaarheid AI

Artikel
22 december 2020

Foto: ANP

Image
Blogserie geen filter

Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Hoe leiden we de wereldwijde ontwikkeling van verantwoorde AI in goede banen? Deze aflevering van de blogserie #DeWereld&AI verkent wat er nodig is op het gebied van (internationaal) beleid. Een gesprek met Noor Huijboom (Ministerie van Binnenlandse Zaken en Koninkrijksrelaties), Heleen Janssen (University of Cambridge en Universiteit van Amsterdam) en Sigrid Johannisse (hoofd Innovatie Attaché Netwerk Noord-Amerika).

In het kort:

  • De komende maanden agendeert het Rathenau Instituut het belang van wereldwijde afspraken voor verantwoordelijke AI.
  • Het ministerie van BZK heeft een instrument ontwikkeld om vroeg inzicht te krijgen wat een AI-systeem betekent voor publieke waarden en mensenrechten.
  • Europa zou best wat meer als één geheel kunnen optreden, juist bij opkomende technologieën.

UNESCO werkt aan een internationale aanbeveling over ethiek en artificiële intelligentie (AI). 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationaal waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het instituut de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.

De komende maanden vragen we inspirerende denkers naar hun ideeën. Welke aspecten vinden zij belangrijk voor deze internationale discussie? Elke blogpost gaat over een ander thema: van de verantwoordelijkheid van bedrijven bij de inzet van AI, via de rol van overheden en beleidsmakers, naar het bevorderen van technologisch burgerschap, tot de impact van AI op werk en onderwijs.

Over Noor Huijboom, Heleen Janssen en Sigrid Johannisse
Noor Huijboom is teamcoördinator Nieuwe Technologieën, Publieke Waarden en Mensenrechten bij het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK). Eerder werkte ze bij TNO, Zenc en Ernst & Young. Huijboom studeerde openbaar bestuur aan Tilburg University en Europees recht aan de universiteit van Angers in Frankrijk. Ze promoveerde op onderzoek naar ICT-innovaties bij de overheid.

Heleen Janssen is rechtswetenschapper aan de University of Cambridge en aan de Universiteit van Amsterdam. Ze is gespecialiseerd in informatiesystemen en overheidsbeleid. Eerder werkte Janssen onder andere als juridisch adviseur bij het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties en bij het Ministerie van Buitenlandse Zaken. Ze promoveerde aan de Universiteit Maastricht op een vergelijkend onderzoek naar de reikwijdte van het recht op privacy.

Sigrid Johannisse is hoofd Innovatie Attaché Netwerk Noord-Amerika op de Nederlandse ambassade in de Verenigde Staten. Zij coördineert het netwerk van innovatie-attachees in Washington, Boston en San Francisco. Eerder was Johannisse medeoprichter van StartupDelta, adviseerde ze Eurocommissaris Neelie Kroes en werkte ze bij de Rijksdienst voor Ondernemend Nederland als manager High Tech Systems.

Over Nederland
Nederland loopt internationaal gezien voorop in het ethische denken over technologie. Maar beleid ervoor maken is niet eenvoudig. Er zitten veel haken en ogen aan beleid en wet- en regelgeving voor opkomende technologieën zoals AI. Het grootste obstakel is dat AI contextafhankelijk is. Daarom is het complex om specifieke regelgeving te maken. Daarnaast zijn vooraf niet altijd alle mogelijke toepassingen van AI duidelijk. Daardoor reguleert een overheid mogelijk te vroeg of kan het juist snelle technologische ontwikkelingen niet met wetgevingsprocessen bijbenen. Welke rol moet Nederland pakken om verantwoorde AI te stimuleren. Wat betekent dit voor beleidskeuzes? Waar lopen beleidsmakers tegenaan bij het maken van beleid over opkomende technologieën zoals AI? En wat kunnen we leren koploper de Verenigde Staten of van een land als Canada dat de hete adem van Silicon Valley in de nek voelt?

Eerst maar eens over de snelle ontwikkelingen? Hoe speelt Nederland daar op in?
Noor Huijboom (BZK): ‘Omdat de ontwikkelingen zo razendsnel gaan, hebben we vanuit BZK een nieuwe kennisbank gelanceerd. Die kennisbank is bedoeld om informatie uit te wisselen over AI. Het gaat over hoe kunnen we als overheid kansen benutten en hoe kunnen we de risico’s voor publieke waarden en mensenrechten in beeld krijgen? Technologie kan publieke waarden namelijk onder druk zetten, denk aan discriminerende algoritmen op de arbeidsmarkt. Daar gaat, terecht, veel aandacht naar uit. Waar wij vanuit BZK vooral op willen sturen, is AI waarbij mensenrechten niet alleen geborgd zijn, maar die zorgt voor versteviging van mensenrechten. Wij maken ons hard voor AI-systemen die helpen het eenvoudiger te maken om discriminatie of uitsluiting op te sporen.’

Hoe kijkt BZK naar internationale afspraken voor AI?
Huijboom (BZK): ‘Natuurlijk kan Nederland niet in zijn eentje een effectieve aanpak ontwikkelen om verantwoorde AI te stimuleren. Bedrijven die met AI bezig zijn, zitten over de hele wereld. Je hebt een EU-benadering en een internationale benadering nodig. Dan kun je de krachten bundelen om zoveel mogelijk te voorkomen dat bedrijven gaan shoppen in de per land verschillende wetten en regels rond dataverzameling. Het is dus van groot belang dat er Europese en internationale afspraken komen voor de verdere ontwikkeling van AI.’

Kan de UNESCO-aanbeveling over ethiek en AI daarbij helpen?
Huijboom (BZK): ‘Het niet-bindende karakter van de aanbeveling blijft lastig. Maar zo’n richtlijn zorgt wel voor het nodige gewicht en draagt ook zeker bij aan bewustwording waardoor er op hoog politiek niveau wordt nagedacht over de kansen en risico’s van AI. En het bijzondere is dat er écht met een mondiale blik wordt gekeken, niet alleen vanuit een Europees, Amerikaans of Chinees perspectief.’

Sigrid Johannisse (Noord-Amerika): ‘Zeker omdat AI invloed heeft op zoiets universeels als ons mens-zijn, moeten we het zoveel mogelijk samen doen.’

Zijn er zaken die missen in de aanbeveling van UNESCO?
Huijboom (BZK): ‘Wat ik graag duidelijker wil terugzien in de aanbeveling is een concretere link tussen AI en álle grondrechten die mogelijk onder druk kunnen komen te staan. Zo mis ik nu bijvoorbeeld een procesrecht als fair trial. Dat verdient specifieke aandacht in zo’n mondiale normatieve richtlijn. Juist omdat AI-systemen voorspellingen doen op basis van groepsindicatoren en gecombineerde datasets. Dat betekent dat verdachtmakingen nooit specifiek zijn, maar slechts een indicatie geven. We mogen niet vergeten dat AI correlaties produceert en geen causale verbanden. Die moeten rechters of politiemensen zelf leggen. Door voorspellende AI te gebruiken, bijvoorbeeld in het geval van opsporingsmiddelen als predictive policing, kan de onschuldpresumptie ondermijnd worden. Je weet wel: je bent onschuldig totdat schuld bewezen is.’

Welke dilemma’s spelen rond wet- en regelgeving voor verantwoorde AI?
Huijboom (BZK): ‘AI is een opkomende technologie die nog aan het begin staat, en waarvan de impact nog niet te voorzien is. Het blijft balanceren tussen reguleren – om waarden als autonomie, inclusie en non-discriminatie te waarborgen – en voldoende ruimte bieden aan veelbelovende innovaties waarmee we maatschappelijke uitdagingen kunnen oplossen. De maatschappelijke en economische kansen die AI biedt, moeten natuurlijk zo goed mogelijk benut worden.’

Johannisse (Noord-Amerika): ‘In Amerika heerst een heel andere cultuur dan in Europa. Natuurlijk zijn zij hier ook bezig met ethische principes voor technologie, maar de grondhouding is dat de federale overheid zich niet te veel bemoeit met de private sector. Wat zij hier zeggen is: “We hebben een grondwet, en we leggen een aantal ethische principes neer om risico’s te managen. Maar dat doen we niet in een alomvattende wetgeving.” Ook is er in Amerika een mindset die veel ruimte laat om zaken met elkaar uit te vinden zonder dat daar per se vooraf kaders aan gesteld worden.

Wat zit erachter die Amerikaanse mindset?
Johannisse (Noord-Amerika): ‘De redenatie is dat de grootste kennis over AI zit bij platforms als Google, Microsoft, Facebook en Amazon, vanwege hun hoeveelheden data, investeringsmacht, het talent en de kennis. En dus gaan onderzoeksinstellingen kijken hoe je mogelijk wél kunt samenwerken – met behoud van onafhankelijkheid – en managen zij de risico’s die dit met zich meebrengt zo goed mogelijk. Vanwege die toenemende waarde die wordt gehecht aan het belang van onafhankelijk wetenschappelijk onderzoek, wordt steeds vaker gewerkt aan nieuwe publiek-private samenwerkingsvormen. Zoals in het Vector Instituut in Toronto, waar de snelle interactie tussen ingenieurs en wetenschappers leidt tot research on steroids. Wat ook meespeelt, is dat onder Trump álles rondom technologie een enorme boost kreeg, alleen maar om niet achter te lopen op China. Het laatste wat ze hier willen is innovatie afremmen met strikte regelgeving.’

En verder?
Johannisse (Noord-Amerika): ‘Dan is er ook nog de aansprakelijkheidscultuur die Amerika kent. Liability is in dit land een heel groot ding. Die cultuur van de grote rechtszaken biedt een natuurlijk tegenwicht. Amerikanen vertrouwen op die manier op het zelfregulerend vermogen van bedrijven. Het risico voor een bedrijf om verwikkeld te raken in een grote rechtszaak, lijkt soms een grotere stok achter de deur dan wet- en regelgeving die vooraf bepaalt wat bedrijven mogen en niet mogen en waarvoor ze precies verantwoordelijk zijn. Niets is schadelijker voor de reputatie en levensvatbaarheid van een bedrijf dan je te moeten verantwoorden over het ongewenste effect van een bepaalde AI toepassing.’

Terug naar Nederland. Met welke beleidsinstrumenten kunnen wij de publieke waarden waarborgen?
Huijboom (BZK): ‘We kijken in Nederland voor AI-beleid vooral naar richtinggevende instrumenten. Het is heel waardevol als in een vroegtijdig stadium ethische dilemma’s aan bod komen. De tools, onderzoeken en experimenten die wij doen, spelen met name in op signaleren waar het schuurt zodat we inzicht verkrijgen in welke publieke waarden er in het geding kunnen komen.’

Bijvoorbeeld?
Huijboom (BZK): ‘Een heel concreet en actueel voorbeeld van een AI-beleidsinstrument is het Mensenrechten en Algoritmen Impact Assessment op nieuwe technologieën. Heleen Janssen dacht deze impact assessment uit en maakte een eerste versie. Een consortium van partners onder leiding van de Universiteit Utrecht buigt zich nu over de verdere uitwerking van het impact assessment. In april 2021 wordt het instrument geïntroduceerd voor opdrachten die de overheid wil gaan aanbesteden. Wij willen daarmee de toon zetten en het goede voorbeeld geven. Uiteindelijk zouden we graag willen dat ook bedrijven de tool gaan gebruiken om ethische AI te ontwikkelen, net zoals ze nu al een dataprotectie impact assessment moeten uitvoeren onder de AVG.’

Heleen Janssen (UvA en Cambridge): ‘Het geloof dat de mogelijkheden van technologie onbegrensd zijn, is heel sterk vertegenwoordigd. Tech als een panacee voor alles. Denk bijvoorbeeld aan de lancering van de corona-app. Die kun je niet los zien van de testcapaciteit. De tijd is gekomen om concreet na te denken over de praktische toepasbaarheid van een digitale technologie en AI én van de implicaties die het met zich meebrengt. We moeten zorgen dat we veel eerder doordrongen zijn van de aanpalende gevolgen van AI en wat dat betekent voor publieke waarden. Het doel van het Mensenrechten en Algoritmen Impact Assessment is dan ook om in een heel vroeg stadium al inzicht te krijgen in de mogelijke risico’s die een AI-systeem oplevert.’

Hoe werkt dat mensenrechten- en algoritmen-impactassessment dan?
Janssen (UvA en Cambridge): ‘Het is de eerste in zijn soort. Er bestaan al veel ethische assessments, maar die blijven altijd abstract en daardoor lastig toe te passen voor beleidsmakers en wetgevers. Ons impact assessment gaat uit van een overzichtelijk stappenplan dat beleidsmakers en ingenieurs concrete handvatten geeft om met elkaar in gesprek te gaan en de juiste discussies te voeren. Daarna kunnen ze gezamenlijk gedragen, verantwoorde besluiten nemen.’

Want, dat is belangrijk?
Janssen (UvA en Cambridge): ‘Ja, ingenieurs en beleidsmakers moeten veel meer met elkaar praten. Een bouwer en opdrachtgever spreken niet altijd dezelfde taal. Daardoor komen scherpe vragen niet tijdig aan bod. Denk bijvoorbeeld aan discriminatie. Een beleidsmaker kijkt daar vaak vanuit een sociologisch kader naar, terwijl een statisticus niet beter weet dat er bias zit in data. De vraag die zij samen scherp moeten krijgen is: wat vind je wel of niet acceptabel en waarom? Dat verhaal moeten beleidsmakers en ingenieurs samen kunnen onderschrijven. En dan kan een uitkomst best zijn dat iets disproportioneel is, dat de oplossing zogezegd erger is dan de kwaal. Verder moet veel vaker de vraag voorop staan of een AI-systeem überhaupt wel de beste oplossing is voor een bepaald vraagstuk.’

Dus?
Janssen (UvA en Cambridge): ‘Ons impact assessment helpt handen en voeten geven aan de grote behoefte van beleidsmakers om zelf een risicotaxatie te doen voor AI-systemen. Het is een heel praktisch instrument dat helpt om goed vooruit te denken, en niet pas achteraf als er schade is. Het impact assessment is gestoeld op de Nederlandse grondwet, op het EU-recht, het Europees Verdrag voor de Rechten van de Mens van de Raad van Europa en het verdrag inzake de burgerlijke en politieke rechten van de mens van de VN. Het instrument wordt uitgebracht in het Engels om snel en makkelijk op te schalen en internationaal te kunnen gebruiken.’

Iets anders. Welke lessen kunnen Nederlandse beleidsmakers leren van Amerika en Canada?
Johannisse (Noord-Amerika): ‘Omdat een top-downaanpak zo slecht werkt in Amerika, geven beleidsmakers hier de voorkeur aan werken vanuit bewustzijn en kennisdeling. En wat het Office of Science en Technology Policy (OSTP) van het Witte Huis recent heel slim heeft gedaan, is een high-levelwerkgroep opzetten met daarin een aantal top-onderzoeksinstituten. Doel is om die instellingen, die allemaal al jaren met AI werken, kennis én data te laten delen. Zo wil het OSTP kijken hoe zij die data kunnen gebruiken voor beleidsvorming.’

Is zo’n werkgroep ook voor Nederland interessant?
Johannisse (Noord-Amerika): ‘Ja, want er is zoveel data beschikbaar voor overheden bij ministeries of publieke kennisorganisaties zoals het CBS, het SCP en het RIVM. Hoe kun je die datasets naar een hogere kwaliteit brengen? Hoe kun je data delen en inzetten voor beleidsvorming om de positie van burgers te verbeteren? In Amerika koppelen ze dit ook direct aan standaardisering van data. Zodat iedereen op dezelfde manier data codeert en vastlegt en systemen onderling kunnen communiceren.’

En hoe zit het met de venture capitalists, de durfkapitaal-investeerders?
Johannisse (Noord-Amerika): ‘Daar zien we iets veranderen. Jarenlang was het klimaat in Silicon Valley dat de startup die het eerst een nieuw product wegzet bij bijvoorbeeld een miljoen klanten, de winnaar is. In de praktijk betekende dit dat publieke waarden in businessmodellen vaak het onderspit delven. Neem Zoom. De hele wereld moest in rap tempo vanuit huis werken en dus moest hun product gewoon goed werken. “Privacy en cybersecurity lossen we later wel op” was het devies. Die mentaliteit houd je in stand vanwege het type financiering. Maar wat nou als je met investeerders een afspraak maakt dat zij een risk management officer aanstellen die de risico’s in kaart brengt en vroegtijdig signaleert welke waarden er in het businessmodel onder druk staan?’

Werkt dat?
Johannisse (Noord-Amerika): ‘Het is vergelijkbaar met wat banken deden na de crisis van 2008. Ook daar werden risk management officers voor nieuwe producten ingeschakeld die rapporteerden aan de board. Dan kijk je echt op systeemniveau waar je kunt ingrijpen of bijsturen. Moeten we wellicht nadenken over het invoeren van risicolabels? Dit is geen beleidsaanbeveling van mijn kant, maar wel een voorbeeld van hoe je kunt doordenken over sturingsinstrumenten.’

(red. De EU denkt in dezelfde richting, gebaseerd op aanbevelingen uit het Witboek van de Europese Commissie. Wetgeving rond risicotaxaties wordt verwacht in het eerste kwartaal van 2021.)

En wat leren we van Canada?
Johannisse (Noord-Amerika): ‘Canada weet heel goed dat zij op techgebied niet zo'n impact hebben als de VS. Dat bewustzijn zorgt ervoor dat de Canadezen veel meer focussen op samenwerking met andere landen. Zo komen zij tot slimme, effectieve oplossingen met meer draagvlak. Ik denk dat Nederland misschien nog weleens vergeet wat de kracht is van Europa.’

Wat is die kracht van Europa dan?
Johanisse (Noord-Amerika): Ik zou willen zeggen: zie Europa als een leidende kracht in de wereld, dat hebben we al meerdere malen bewezen. Denk bijvoorbeeld aan de AVG die ook internationaal navolging krijgt. Erken die kracht met elkaar en ga ook op die manier met elkaar in een vergadering zitten. Minder vanuit het eigen puur nationale belang en veel meer vanuit de vraag wat je als Europa kunt bereiken en wat daar dan jouw bijdrage in is. Juist bij opkomende technologieën zouden we als Nederland de Europese lijn nog sterker mede moeten vormgeven, want het Europees beleid bepaalt uiteindelijk je positie in de wereld.’

Hoe nu verder?
Huijboom (BZK): ‘Zeker als het gaat om bedrijven kunnen sturen op hun verantwoordelijkheid voor ethische AI, moeten we op Europees niveau samenwerken. Een aantal beoogde maatregelen om een te dominante marktpositie van grotere digitale platforms aan te pakken, is gepubliceerd in een voorstel van de Franse staatsecretaris Cédric O en staatssecretaris Mona Keijzer van Economische Zaken. De waardengedreven samenleving die wij voorstaan en waarin veiligheid, transparantie, inclusiviteit, privacy, autonomie en menselijke waardigheid de uitgangspunten zijn, krijgt in Europa gelukkig veel bijval.’

 


Afstudeerverslag over Amerikaanse benadering AI en mensenrechten
Op initiatief van Sigrid Johannisse (innovatie-attachee op de Nederlandse ambassade in de Verenigde Staten) interviewde Kolja Verhage voor zijn afstudeerproject aan Colombia University in New York, twintig experts in de VS en Canada over de risico’s van AI voor mensenrechten en wat daarin de verschillende benaderingswijzen en oplossingen zijn. Daar zijn een aantal modellen uitgekomen die eind 2020 werden gepresenteerd aan een interdepartementale werkgroep.