calendar tag arrow download print
Doorgaan naar inhoud

Betrek burgers bij de ethiek van AI

Artikel
24 juli 2020

Foto: Shutterstock/Rathenau Instituut

Image
Peter-Paul Verbeek / AI

Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Het is daarom belangrijk internationaal samen te werken om de ontwikkeling van AI in goede banen te leiden. Maar hoe moet die samenwerking er eigenlijk uitzien? En welke ethische vraagstukken spelen daarbij? In deze aflevering van de blogserie #DeWereld&AI spreken we met universiteitshoogleraar Filosofie van Mens en Techniek, Peter-Paul Verbeek (Universiteit Twente) over het belang van internationale afspraken over de ethiek van AI. ‘Om de wereld bij elkaar te houden is het heel belangrijk om mondiale afspraken te maken over AI-ontwikkelingen.’

In het kort:

  • De komende maanden agendeert het Rathenau Instituut de belangrijkste vragen over verantwoorde AI in een internationale context.
  • Hoe komen we tot mondiale afspraken die eraan bijdragen dat mensenrechten voorop staan bij de ontwikkeling van AI?
  • Aandachtspunten volgens Peter-Paul Verbeek: meer aandacht voor gemeenschapszin en collectieve belangen en het betrekken van burgers bij ethische vraagstukken over AI.

AI is een mondiale aangelegenheid. Vraagstukken over ethiek en AI gaan dus automatisch over internationale (culturele) waarden. Die zijn complex, omdat er veel perspectieven zijn en verschillende belangen spelen. Hoe kom je dan toch tot goede internationale afspraken? Waar zouden die over moeten gaan?

UNESCO werkt momenteel aan een internationale aanbeveling over ethiek en AI: 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationale waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het Rathenau de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.

De komende maanden vragen we inspirerende denkers naar hun ideeën; welke aspecten vinden zij van belang voor deze internationale discussie? Elke blog passeert een ander thema de revue, zoals de verantwoordelijkheid van bedrijven bij de inzet van AI, de rol van overheden en beleidsmakers, het bevorderen van technologisch burgerschap en de impact van AI op werk en onderwijs.

Peter-Paul Verbeek


Over Peter-Paul Verbeek

Peter-Paul Verbeek is als bestuurslid verbonden aan het Rathenau Instituut en maakt deel uit van de  UNESCO Ad Hoc Expert Group die recent is gestart met schrijven aan een internationale aanbeveling over ethiek en AI. Hij is tevens voorzitter van de UNESCO World Commission for the Ethics of Science and Technology (COMEST).

Waarom vindt u het belangrijk dat er internationale afspraken komen voor AI?
‘De impact van AI op de samenleving is dusdanig ingrijpend dat het noodzakelijk is om tot een mondiaal kader voor ethische reflectie te komen. AI-ontwikkelingen en -toepassingen overstijgen landsgrenzen en ik denk dat het goed is om de impact ervan in sommige gevallen te reguleren. Als we dat niet doen, kunnen er allerlei negatieve en ongewenste effecten optreden. Denk aan het buitensluiten van mensen of nieuwe machtsverhoudingen die we niet willen. In sommige gevallen zou AI bepaalde institutionele arrangementen kunnen ondergraven. Dat zijn grote woorden. Maar het is belangrijk om niet zomaar voorbij te gaan aan de nadelige effecten die AI kan hebben.’

Kunt u een voorbeeld geven?
‘Neem de gezondheidszorg. Bedrijven als Google en Apple beschikken over ongelofelijk veel persoonlijke data, met dank aan onze smartphones en smartwatches. Die bedrijven bouwen een enorme hoeveelheid kennis op, waarmee er nieuwe mogelijkheden om zorg te verlenen ontstaan waar we misschien afhankelijk van gaan worden. In Nederland kennen we nog altijd een systeem dat in de basis is gefundeerd op solidariteit. Wij hebben zorgverzekeringen die onder behoorlijke strenge staatscontrole staan. Maar dat geldt lang niet overal ter wereld, denk bijvoorbeeld aan Amerika. Op het moment dat we afhankelijk gaan worden voor onze gezondheidszorg van commerciële bedrijven, dan ondergraven we een fundamenteel uitgangspunt van onze samenleving hier.’

Dit voorbeeld illustreert volgens Verbeek hoe hard het nodig is om tot een gedeeld kader te komen. De afgelopen jaren zijn er tientallen gedragscodes en aanbevelingen verschenen over de ethische kanten van AI. Wat is onderscheidend voor deze UNESCO-aanbeveling?

‘Het is een unieke kans om met zoveel landen (red. UNESCO telt 195 lidstaten) gezamenlijk tot collectieve afspraken te komen. Al vind ik het buitengewoon jammer dat Amerika, of beter: de United States of America (USA), geen lid meer zijn van UNESCO. Dat perspectief hebben we formeel niet meer aan tafel zitten. Uitgaande van de gedachte dat  twee heel grote landen een dominante rol hebben in de ontwikkeling van AI, namelijk Amerika en China, is het ontzettend betreurenswaardig dat één van die landen niet meepraat. Het betekent dat extra inspanningen nodig zijn om er écht mondiaal uit te komen.’

Er is wel een Amerikaanse expert toegewezen door directeur-generaal Audrey Azoulay van UNESCO om plaats te nemen in de Ad Hoc Expertgroep Ethics on AI.

Verbeek: ‘Dat is wat mij betreft een belangrijk gebaar naar de rest van wereld. Zo wordt duidelijk dat bij de totstandkoming van zo’n internationale aanbeveling álle perspectieven zijn meegenomen, inclusief dat van de Verenigde Staten. Maar feit blijft dat Amerika de aanbeveling over AI niet hoeft te onderschrijven straks. Echt heel spijtig.’

Hoe groot is de impact van AI?
‘AI verandert het menselijk denken. En het zal het beeld en begrip dat we van elkaar en van de wereld hebben direct of indirect beïnvloeden. Het is overigens niet nieuw dat een uitvinding of technologie dit teweeg brengt, denk maar aan het schrift dat invloed had op het menselijk geheugen. Of aan de boekdrukkunst, die ervoor zorgde dat kennis breed toegankelijk werd en waarmee de basis werd gelegd voor de wetenschap zoals we die nu kennen.’

‘De vraag is nu wat AI gaat betekenen voor publieke opinievorming, beleid en het functioneren van democratieën. Om de wereld bij elkaar te houden is het heel belangrijk om AI ontwikkelingen en toepassingen te bekijken vanuit een inclusieve blik. En daarover internationale afspraken met elkaar te maken’, stelt Verbeek.

U koppelt de impact van AI aan het bij elkaar houden van de wereld. Dat zijn grote woorden. Hoe doen we dat?

‘Het is interessant om te merken dat het vanuit het UNESCO-perspectief heel natuurlijk aanvoelt om te kijken naar het grote plaatje, en om te denken vanuit het collectief en de gemeenschapszin. Je gaat kijkt anders aan tegen zaken als je redeneert vanuit het vertrekpunt ‘leaving no one behind’, niemand achter willen laten. Ik denk dat die collectieve lens hier in Nederland, maar meer algemeen in het Westen, te weinig ruimte krijgt. Voor een Chinees of Japanner is het wezenlijk anders als die gevraagd wordt iets van zichzelf op te geven ten bate van het collectief, om klimaatverandering tegen te gaan bijvoorbeeld.’
 
‘Het baart me zorgen dat we hier in Nederland de neiging hebben om het beroep op gemeenschapszin, diversiteit of culturele inclusie uit te leggen als linkse agenda. Terwijl je ziet dat het in zo’n globale setting eigenlijk helemaal niet zo politiek beladen is. Maar meer een vanzelfsprekende doelstelling die we hebben, omdat we tenslotte met z’n allen op deze planeet leven. Ik vind dat verfrissend. En ja, je zou kunnen beweren dat ik een linkse agenda heb. Wat ik vooral meeneem uit zo’n internationale UNESCO omgeving is dat je de impact van AI écht kunt bekijken vanuit een inclusieve blik, waarin ieders waarden worden meegenomen.’

Gevraagd naar voorbeelden van de impact van AI noemt Verbeek onder meer machine translation. ‘Wat betekent deze toepassing voor de kleine talen? In het geval van kunst kunnen we ons afvragen of de algoritmes van Spotify en Netflix ons wellicht meer doelbewust in aanraking kunnen brengen met producties van andere culturen? En het zou ook interessant zijn als er via de algoritmes die nieuwssites nu vullen een diversiteit aan perspectieven op de zaken wordt geboden.’

Het zijn geen schokkende dingen, stelt Verbeek vast. ‘Maar wel dingen die je pas op de agenda kunt zetten als een randvoorwaarde van het denkkader is dat we niemand achterlaten. En waar je niet zomaar bij stilstaat als je redeneert vanuit de gedachte: wij moeten de baas over onze besluitvorming en onze gedachten blijven. Ethiek gaat over meer dan alleen het waarborgen van het vertrouwen tussen mens en techniek. Hoe garanderen we diversiteit? En hoe zorgen we ervoor dat AI een positieve bijdrage levert aan de samenleving als geheel?’

Welke rol is er weggelegd voor Nederland of Europa in het internationale krachtenveld?

Dit is een lastige vraag voor Verbeek die zich stoort aan het veel gebruikte frame dat Amerika en China voorop lopen bij AI-ontwikkelingen en zich beide ten doel hebben gesteld om de AI-markt te domineren. ‘Met Europa die daar een beetje achteraan loopt en kiest voor de ‘derde weg’. Als alternatief voor het ‘kapitalistische Westen’, waar commerciële belangen de boventoon lijken te voeren, en het Communistische Oosten waarin de staat sturend is.’

‘De EU zoekt naar een kader voor AI waarin een mensgerichte aanpak centraal staat en waarin er een juiste balans is tussen een sturende overheid en economische belangen. Als gevolg daarvan zet Europa veelal in op individuele thema’s als privacy, vooroordelen (bias), transparantie, aansprakelijkheid en de zogenaamde uitlegbaarheid, de mate waarin de werking van algoritmes is uit te leggen.’
 
‘Ondanks dat er van alles aan te merken is op Europa, ben ik van mening dat als er nou één domein is waarin de EU heel succesvol is, dan is dat in het aanpakken van grote techbedrijven en het waarborgen van burgerrechten in de informatiesamenleving. Er is veel kritiek op de AVG, maar we hebben deze wetgeving  wél. Er is geen plek ter wereld waar data zo goed beschermd zijn als in Europa. Dat vind ik echt een triomf. Het laat zien dat we zoiets, ondanks grote uitdagingen en onderlinge verschillen, als EU toch voor elkaar hebben gekregen.’
 
‘Ik heb  ook moeite met het beeld van ‘de derde weg’, omdat het zuidelijk halfrond überhaupt niet meer in dit plaatje voorkomt, en ik een groot pleitbezorger ben om meer vanuit gemeenschapszin te kijken naar internationale AI-ontwikkelingen.’

De internationale aanbeveling van UNESCO waar u aan mee schrijft, kan dus een collectief perspectief bieden. Het gevaar is dat de adviezen in zo’n internationale aanbeveling erg abstract blijven, omdat landen onderling sterk verschillen. Hoe kan er concreet invulling worden gegeven aan de ethiek van AI; waar moeten die internationale afspraken over gaan?

‘Er wordt nog te vaak alleen gepraat over wat we niet willen. Dat gaat al snel over risico’s en andere zaken die we willen vermijden. Maar we moeten het juist hebben over welke waarden we willen meegeven aan AI. Wat vinden wij belangrijk? De universele rechten van de mens, die vertegenwoordigen de buitenste kaders, en moeten uiteraard te allen tijde worden gerespecteerd. Wat daarbinnen kan, daar moeten mondiale afspraken over gaan. Als we daar niet voldoende over nadenken, kan het onbedoeld zomaar misgaan. Zo’n iconisch voorbeeld waar het ‘misging’ is het selectiealgoritme waarmee Amazon nieuw personeel zocht. Zij namen het profiel van de zittende succesvolle medewerkers als norm. Uiteindelijk selecteerde het algoritme alleen nog blanke mannen tussen de veertig en de vijftig jaar, omdat diversiteit niet expliciet was meegenomen in de ontwikkeling en training van het algoritme.’

Internationale afspraken moet dus gaan over de waarden waar we AI mee laden. Waar denkt u dan aan?

‘Er is een heel mooie studie gedaan door UNESCO over voice assistants: I’d blush if I could. Over waarom voice assistants altijd vrouwelijk en onderdanig zijn,  vriendelijk blijven als ze worden uitgescholden, en blijven incasseren in plaats van een keer terug te bijten. Daar zit een waardepatroon achter, en daar houd je ook een waardepatroon mee in stand.’

‘Ik denk dat als we dát werkelijk leren zien, we het ook kunnen omdraaien en op wereldschaal kunnen nadenken over hoe je juist verschillende waardenkaders meeneemt in AI-systemen. En misschien wil je dat wel anders doen in Saoedi-Arabië dan in Senegal, en weer anders in Rusland dan in België. Binnen de grenzen van de mensenrechtenverklaring, die een mondiaal gedragen waardenkader belichaamt.’

Ethiek van AI ziet er dus overal anders uit?

“De mensenrechten zijn de buitengrenzen. Maar de ethiek begint voor mij pas echt in de ruimte die daarbinnen ontstaat. Ik noem het vaak positieve ethiek in plaats van negatieve ethiek. Negatieve ethiek gaat over het definiëren wat er niet mag en onethisch is. Terwijl positieve ethiek juist gaat over de voorwaarden waaronder bepaalde waarden kunnen bloeien. Dat is een heel andere insteek. En dat is ook iets waar we in de UNESCO-context ruimte voor zouden kunnen maken.
Ethische kaders zullen er inderdaad niet voor alle landen hetzelfde uitzien. Dat is ook niet erg. Er moet ruimte zijn voor pluraliteit in waarden, denk ik. Het zou jammer zijn als we de ethiek tot een soort uniformerend kader maken. Juist die ruimte voor diversiteit is wat we moeten zien te behouden in een wereld van AI.’

Zijn er ook nog zaken die u mist in de (internationale) discussies over de ethiek van AI?

‘Ik denk dat we nog heel veel meer kunnen doen door simpelweg burgers te betrekken bij ethische reflectie. In mijn eigen werk bij de Universiteit Twente ben ik de laatste tijd bezig met het begrip ‘citizen ethics’. Dat is voor mij het laatste bastion waar de civil society nog moet doordringen. We zijn begonnen met design. Dat werd co-design: waarom zou de gebruiker niet kunnen meedenken over het ontwerp van producten? Later volgde citizen science (red. denk aan waarnemingen van dieren of het meten van waterkwaliteit), waarin de burger een actieve rol krijgt in de wetenschap. Maar de ethiek is nog steeds een zaak van ethische experts die in een commissie hun duim omhoog of omlaag steken. Dat past helemaal niet meer. Dus waarom zou je die ethische expertise niet kunnen gebruiken om burgers te empoweren? Ik denk dat citizen ethics een goede manier kan zijn om de maatschappelijke zorgen over kunstmatige intelligentie of de impact daarvan op onderwijs, politie of  de arbeidsmarkt te adresseren.’

‘Een concreet en actueel voorbeeld daarvan is de corona-app-discussie. Daar gaan we bij Design Lab in Twente een citizen ethics-sessie over organiseren. Zo willen we de zorgen van burgers rondom die apps boven tafel krijgen en agenderen. Ik hoop dat een concept als citizen ethics eraan bijdraagt om meer duidelijkheid te krijgen over wat er leeft onder burgers en de aansluiting tussen burgers en de politiek, die soms mist, te versterken.’

‘Ik heb de kreet nog maar een paar weken geleden bedacht’, grijnst Verbeek – al blijkt de term ook al eerder te zijn gebruikt. ‘Maar ik denk oprecht dat het veel waarde heeft om citizen ethics bij AI vraagstukken groter te maken in een Europees kader. En het liefst zou je zoiets natuurlijk mondiaal toepassen.'