Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Hoe leiden we de wereldwijde ontwikkeling van verantwoorde AI in goede banen? In deze aflevering van de blogserie #DeWereld&AI kijken we naar de impact van AI-ontwikkelingen op geopolitiek en internationale machtsverhoudingen. Een gesprek met Haroon Sheikh, senior wetenschapper bij de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) en als filosoof verbonden aan de Vrije Universiteit (VU).
In het kort:
- De komende maanden agendeert het Rathenau Instituut het belang van wereldwijde afspraken voor verantwoordelijke AI.
- Sheikh voorziet een mooie rol voor Europa bij de ontwikkeling van verantwoorde AI en wijst op het voordeel van Europa bij standaardisering vanwege het zogenaamde ‘Brussels effect’.
- Verder maakt hij zich zorgen over de potentieel enorm destabiliserende effecten van deepfakes.
UNESCO werkt aan een internationale aanbeveling over ethiek en artificiële intelligentie (AI). 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationaal waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het instituut de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.
De komende maanden vragen we inspirerende denkers naar hun ideeën. Welke aspecten vinden zij belangrijk voor deze internationale discussie? Elke blogpost gaat over een ander thema: van de verantwoordelijkheid van bedrijven bij de inzet van AI, via de rol van overheden en beleidsmakers, naar het bevorderen van technologisch burgerschap, tot de impact van AI op werk en onderwijs.
Over Haroon Sheikh
- Sheikh is senior wetenschapper bij de WRR en als filosoof verbonden aan de VU. Voor de WRR doet hij onderzoek naar de kansen en gevolgen van kunstmatige intelligentie ofwel Artificiële Intelligentie (AI) voor de (Nederlandse) samenleving en economie. Later dit jaar brengt de WRR hierover een advies uit.
- Als hoofdonderzoeker van opkomende markten was hij werkzaam bij investeringsmaatschappijen Cyrte en Dasym. Van 2015 tot 2018 leidde hij Freedomlab Thinktank, een denktank die zich bezighoudt met de impact van nieuwe technologie en veranderende mondiale verhoudingen.
- Sheikh schreef drie boeken: De Opkomst van het Oosten: Eurazië en de nieuwe wereldorde (2016), Embedding Technopolis (2017) en Hydropolitiek (2019).
Over geopolitiek en AI
Vladimir Poetin stelde het jaren geleden zo: wie leider is in AI, bestuurt de wereld. Een bijzondere ontboezeming, want Rusland zal zeker geen wereldwijde AI koploper worden. En hoewel zijn uitspraak wat gechargeerd is, lijkt het erop dat AI hét technologische systeem wordt dat de bovenlaag van onze economie vormt, oftewel de besturingslaag, aldus Haroon Sheikh.
AI wordt nadrukkelijk genoemd als het gaat over geopolitiek en internationale machtsverhoudingen. Wat kunnen we verwachten?
‘AI is een nieuwe digitale technologie waarvan we eigenlijk allemaal weten dat die grote implicaties heeft. Het zal de wereld en economie indringend veranderen, en dus ook de toekomst van conflict.
Het spannende is dat we alleen niet weten op welke manier precies. Dat zorgt voor een heftig en politiek divers debat. De opkomst van AI creëert onrust, landen moeten eigenlijk overal proberen gaten te dichten. Geopolitiek kan het straks gaan om de opkomst van autonome wapens of om de disruptie van informatiesystemen in jouw land door botaanvallen. Of om pogingen om een flash crash (red. een beurskrach) te veroorzaken, social media feeds te manipuleren of AI-systemen te hacken: het is ongewis en kan zoveel kanten opgaan.’
Als het gaat over de invloed van AI op machtsverhoudingen lijkt het publieke debat - en lijkt het er in de media - toch vaak te gaan over autonome wapens. Is dat terecht?
‘Er gaat inderdaad veel aandacht uit naar zogenaamde Leathal Autonomous Weapon Systems (LAWS). Wat mij betreft iets te veel. Want het gaat ook over informatiedetectie, sneller beslissingen kunnen nemen, uit andere bronnen intelligence kunnen halen. Dat zijn allemaal dingen waarmee AI het leger nog meer beïnvloedt. Meer nog dan alleen maar die autonome wapens.
En daarnaast is er een immens domein waarin AI de veiligheid ook beïnvloedt, niet via de klassieke militaire weg, maar via het burgerlijke domein. Door de samenleving te ontregelen, door daar invloed op te hebben.’
Wat zijn concrete voorbeelden hiervan?
‘Neem een fenomeen als digital authoritarianism, wat inhoudt dat een autoritaire staat digitale middelen ontwikkelt en inzet voor dictatoriale doeleinden. En niet alleen in eigen land, maar in steeds grotere mate ook door die technologie te exporteren. Landen als China, Noord-Korea en Rusland blijken hiervoor heel capabel. Dat zie ik als groot veiligheidsrisico. Door surveillancetechnologie te exporteren, probeerde Rusland zich in de Amerikaanse verkiezingen te mengen. En ook de geraffineerde SolarWinds hack (red. Russische hack van Amerikaanse overheidsinstanties) past in dit rijtje.’
Moeten we daarvoor ook bang zijn in Nederland?
‘Het zorgelijke is dat dit soort praktijken, zoals dataverzameling, beïnvloeding of surveillance, op een immense schaal speelt. Ook in Nederland. Denk bijvoorbeeld aan allerlei smart-city-toepassingen die worden uitgewisseld. Het gaat dus om een heel breed palet van AI-toepassingen die risico’s vormen.
Ook in relatie tot social media zijn verontrustende vormen te onderscheiden. Dat kan gaan om ‘doodgewone’ machine learning die indiceert hoe je maximale aantallen advertenties verkoopt, wat leidt tot extremere contentcreatie. Maar ik doel ook op beïnvloeding via (politieke) microtargeting. Of de opkomst van natural language processing, een techniek die wordt gebruikt om het online sentiment van mensen te analyseren en daarop in te haken.’
En dan hebben we hebben het nog niet gehad over de opkomst en invloed van deepfakes op machtsverhoudingen en veiligheidsrisico’s?
‘Ja, dat is misschien wel de meest extreme vorm waarin AI ons via social media beïnvloedt. Zeer verontrustend, zeker gelet op de grote sprongen waarmee deepfakes zich verder ontwikkelen. Desinformatie expert Nina Schick schreef er een mooi boek over: Deepfakes and the Infocalypse. Zogenaamde Generative Adversarial Networks (GANs) worden vaak gebruikt voor deepfakes. Daarbij herkent AI niet slechts patronen, maar maakt die ook zelf. AI wordt daarmee creatief en creëert nieuwe gezichten van mensen die niet bestaan. Maar wat ook kan, is bestaande mensen dingen laten zeggen en doen die niet gebeurd zijn. Zeker op het gebied van audio raast de ontwikkeling voort. Een bedrijf als LyreBird, die zich hiermee bezighoudt, beweert dat het maar een paar minuten geluid van iemands stem nodig heeft om het vervolgens alles te laten zeggen wat je maar wilt. Zonder enige haperingen videobeelden imiteren is nog wat moeilijker. Maar ook die ontwikkelingen gaan snel.
Exemplarisch is het voorbeeld van The Irishman (2019), een Netflix film met een immens budget, onder meer gebruikt voor verouderingstechnologie om een zo plausibel mogelijke weergave te maken van de oude en jonge versies van acteurs Al Pacino en Robert de Niro. Dat lukte redelijk. Maar wat bleek? Nog geen jaar nadat de film uitkwam, maakte een YouTuber via open-source-software diezelfde beelden na, veel levensechter zelfs.’ (red. nog weer een paar maanden later flikte een andere YouTuber het opnieuw met een andere deepfake-technologie.)’
Indrukwekkend. Hoe gaan deepfakes onze realiteit beïnvloeden?
‘De tools om deepfakes te maken zijn alom aanwezig op het internet en inmiddels kan iedereen zonder budget deepfake-beelden creëren. Dat maakt het heel democratisch, maar het heeft potentieel enorm destabiliserende effecten.’
Waar moeten we rekening mee houden?
‘In de meest praktische vorm gaan we het terugzien in de werkwijze van criminelen. Nu hebben we bijvoorbeeld te maken met spoofing mails ofwel gemanipuleerde e-mails waarin iemand wordt gevraagd om geld over te maken. Met de opkomst van deepfakes wordt daar een laag aan toegevoegd. Want op basis van één audioclipje dat je hebt, kun je al een deepfake maken en diegene letterlijk laten zeggen: Hé mam, wil je geld naar me overmaken?’
Wat doet het volgens u met het vertrouwen dat wij hebben in woord en beeld?
‘Vanuit een macroperspectief bezien betekent de opkomst van deepfakes dat allerlei vormen van authenticatie zoals wij die nu kennen, onder druk komen te staan. Onze samenleving is grotendeels gebaseerd op het vertrouwen dat wij hebben in de waarachtigheid, en iets met eigen ogen zien. Deepfakes tornen aan dat principe van waarachtigheid en dat kan heel problematisch uitpakken.’
Merken we dit al?
‘Er is de kwestie van een Afrikaanse leider die een tijdje ziek was. Toen hij later weer in beeld kwam, werd publiekelijk de vraag gesteld of hij het wel echt was. Of dat er soms sprake was van nepbeelden om te suggereren dat hij nog leefde? Er bleek helemaal niets aan de hand te zijn. Maar het simpele feit dat het nep kán zijn, zorgt ervoor dat een samenleving kan destabiliseren.
Dat effect treedt ook op bij geruchten op social media over samenzweringen. Nog voordat duidelijk is of iets nep is, waart een filmpje rond en levert dit al grote schade en onrust op. Mijn zorg voor de toekomst is dat het maken van zeer waarheidsgetrouwe deepfakes binnen een paar jaar even makkelijk is als een Instagramfilter gebruiken of een bewerking in Photoshop.’
Zouden we deepfake-technologie dan moeten verbieden?
‘Hoe destabiliserend deepfakes ook kunnen zijn, het betekent niet dat we het gemakkelijk kunnen verbieden. Of dat we dat zouden moeten willen. Wat in de kern moeilijk is aan deze technologie – en dat geldt breed voor AI – is dat het heel generiek is. Vaak is sprake van dual use; dezelfde AI-techniek kan voor heel verschillende doeleinden worden gebruikt. De GANs-technologie waarmee deepfakes worden gemaakt, gebruiken we ook om andere artificiële omgevingen te creëren. Nepbeelden zijn heel goed om simulaties te maken of om oefendata te creëren die je normaal niet hebt. Verbieden is dus ongelofelijk complex.
Wel is het urgent om te onderzoeken welke technologische oplossingen kunnen bijdragen aan het autoriseren van online content. Wetgevers onderzoeken nu de mogelijkheden die er zijn om aanbieders van content verplicht te stellen dat het gaat om artificiële beelden – als dat het geval is. Voor crimineel gebruik van technologie geldt natuurlijk altijd dat er sprake is van competitie tussen criminelen enerzijds om niet betrapt te worden, en de autoriteiten anderzijds om zaken bloot te leggen en te bewijzen.’
Internetregulering vanuit overheden is een hot topic. Wat is de verantwoordelijkheid van de grote techbedrijven?
‘Ik denk dat de manier waarop Big Tech nu georganiseerd is niet meer in zijn huidige vorm kan blijven bestaan. Veel techbedrijven zoeken de oplossing in zelfregulering zoals de Internal Supreme Court van Facebook. Het is de vraag of dergelijke partijen in staat zijn zichzelf op het goede spoor te zetten. Het momentum groeit in de samenleving voor meer dwingende regulering vanuit overheden.’
Wat maakt het zo ingewikkeld?
‘Er is de roep om de verantwoordelijkheid bij overheden neer te leggen. Maar dat is heel lastig en heeft te maken met het vertrouwen in een overheid. Stel dat burgers in Nederland besluiten dat we de Nederlandse overheid dat vertrouwen geven. Betekent het dan ook dat de Russische overheid verantwoordelijk moet zijn voor het internet in Rusland en de Chinese overheid in China? De vrijheid van het internet heeft er tenslotte ook vaak voor gezorgd dat de macht over het internet niet in handen kwam van autoritaire regimes.’
Wat stelt u voor?
‘We kunnen nadenken over het creëren van een tussenlaag van instituties met een soort onafhankelijke publieke rol. Bijvoorbeeld in de vorm van meer technocratische, internationale instituties, vergelijkbaar met initiatieven als de World Health Organization (WHO) en Food and Agriculture Organization (FAO).
Een andere interessante mogelijkheid om op termijn te verkennen, is om op nationaal niveau een grotere, meer controlerende rol te organiseren met partijen uit het maatschappelijk middenveld. Denk aan een orgaan als het Commissariaat voor de Media, maar in dit geval zou dan een Commissariaat voor Big Tech kunnen toezien op het functioneren van de grote technologiebedrijven.’
Wat kan Nederland doen?
‘Het kan interessant zijn om te verkennen wat er gebeurt bij bestaande internationale instituties. Om er twee te noemen: de International Telecom Union (ITU) van de Verenigde Naties en de Internationale Standaarden Organisatie (ISO). Dat zijn instituties die wij veelal beschouwen als saai, omdat het beeld is dat daar een stelletje ingenieurs en experts slechts met elkaar praat over de vereisten waaraan een apparaat moet voldoen of wat goede software is. Maar feitelijk komen daarin al die politieke vragen over publieke waarden en veiligheidskwesties samen. China lobbyt dan ook enorm bij die organisaties. In de hoop dat de Chinese standaard voor gezichtsherkenning de universele standaard wordt. In China’s nationale AI-strategie komt het woord ‘standaardisering’ letterlijk tientallen keren voor. Sterker nog, ze hebben een algemeen document over de opkomst van China en standaardisering. Zij realiseren zich dat het een enorm machtig instrument van invloed is, iets wat doorgaans wordt genegeerd in de wereld van machtsverhoudingen. Maar Europa heeft een voordeel als het gaat om standaardisering vanwege het Brussels effect.’
Hoe werkt dat Brussels effect?
‘De term is geïntroduceerd door Anu Bradford. Zij ontdekte dat het bij het opstellen van standaarden niet alleen gaat om de grootte van de markt, maar met name of je de instituties hebt om de markt te reguleren. De VS hebben wel een grote markt, maar Amerikanen houden er nou eenmaal niet van om hun eigen markt te reguleren. Dat verschilt met de Europese cultuur. Europese consumenten hechten ook belang aan het handhaven van standaarden. Ik ben hoopvol dat Europa een belangrijke positie gaat innemen op het gebied van wetgeving en standaardisering van AI.’
Tot slot. Er wordt de laatste tijd steeds vaker gesproken over ‘strategische autonomie’ voor Europa, zeker ook in relatie tot het digitale domein. Hoe kijkt u daarnaar?
‘Die discussie over strategische autonomie gaat alle kanten op. Terecht wordt opgemerkt dat Europa nog vele jaren verwijderd is van het garanderen van de eigen veiligheid en daarmee dus nog lang niet strategisch autonoom kan zijn. En op het digitale gebied wordt gewezen op de enorme achterstand ten opzichte van de VS en China. Europa zou nooit met Silicon Valley kunnen concurreren. Maar ik pleit ervoor om het anders te interpreteren. We moeten autonomie niet bekijken vanuit het perspectief van meeconcurreren of ons begeven in de strijd tussen die grootmachten. Het gaat erom dat Europa eigen ruimte creëert en daarmee al te grote afhankelijkheid voorkomt. Zo kunnen we ook naar de digitale wereld kijken.’
Kunt u een voorbeeld geven?
‘Neem het Galileo project, het gps-systeem. De Amerikanen waren er niet blij mee dat Europa dit project heeft doorgezet. Maar een gps-systeem is van groot strategisch belang en draagt bij aan digitale strategische autonomie. Zo zijn er ook allerlei Europese plannen rondom cloud- en datadiensten en op cybergebied. Overal moet een schepje bovenop, maar door op deze gebieden met een gecoördineerde AI-strategie te komen, kan Europa echt veel onafhankelijker opereren. Nederland zou daar een actievere bijdrage aan kunnen leveren. Europa kan een mooie rol spelen om ontwikkelingen voor verantwoorde AI te stimuleren.’