Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Hoe leiden we de wereldwijde ontwikkeling van verantwoorde AI in goede banen? In deze aflevering van de blogserie #DeWereld&AI gaan we in gesprek met hoogleraar filosofie Emma Ruttkamp-Bloem uit Zuid-Afrika. Zij was een van de 24 onafhankelijke experts die door directeur-generaal van UNSECO, Audrey Azoulay, werden aangesteld om een concept tekst te schrijven voor de eerste mondiale aanbeveling over de ethiek van AI. ‘Door waarden centraal te zetten, konden we verschillende perspectieven van over de hele wereld samenbrengen en de aanbeveling meer inclusief maken. Als de tekst slechts vanuit het Westerse perspectief was geschreven, zouden we een hoop nuances missen.'
In het kort:
- Hoogleraar Filosofie Emma Ruttkamp-Bloem (Universiteit van Pretoria, Zuid-Afrika) maakt zich zorgen over de kwetsbare positie van de regio Global South als het gaat om ontwikkelingen op het gebied van AI.
- Zij stelt dat capaciteitsopbouw ofwel technologisch burgerschap (mensen onderwijzen over AI) een van de belangrijkste beleidsdoelen moet zijn.
- Ook benadrukt ze dat betrouwbaarheid van AI bovenal een sociaal-technisch concept is, niet alleen een technische voorwaarde om AI systemen veilig, duurzaam en nauwkeurig te maken.
UNESCO werkt aan een internationale aanbeveling over ethiek en artificiële intelligentie (AI). 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationaal waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het instituut de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.
De komende maanden vragen we inspirerende denkers naar hun ideeën. Welke aspecten vinden zij belangrijk voor deze internationale discussie? Elke blogpost gaat over een ander thema: van de verantwoordelijkheid van bedrijven bij de inzet van AI, via de rol van overheden en beleidsmakers, naar het bevorderen van technologisch burgerschap, tot de impact van AI op werk en onderwijs.
Over Emma Ruttkamp-Bloem
- Emma Ruttkamp-Bloem is hoogleraar filosofie aan de universiteit van Pretoria en staat aan het hoofd van het filosofie departement van deze Universiteit.
- Haar onderzoeksgebieden zijn ethiek & technologie en wetenschapsfilosofie. Ze richt zich op de impact van social robotics op de mensheid, de ethiek van autonome wapensystemen, AI en duurzaamheid in Afrika, en rechtvaardige, verantwoordelijke en transparante machine learning. Daarnaast richt zij zich op problemen met betrekking tot scientific realism (denkwijze binnen wetenschapsfilosofie) en de structuur van wetenschappelijke theorieën.
-
Momenteel doet zij mee aan onderzoeksprojecten over de ethiek van AI, scientific realism, de structuur van theorieën en epistemic justice (de rechtvaardigheid van kennis).
-
Ruttkamp-Bloem werd benoemd tot voorzitter van de internationale expertgroep om toe te zien op de definitieve opstelling van de mondiale aanbeveling over ethiek en artificiële intelligentie van UNESCO.
Wat is het belang van de internationale aanbeveling van UNESCO over de ethiek van AI voor Afrika?
‘Het is denk ik in het algemeen zeer belangrijk dat regio's als Afrika, Latijns-Amerika en de kleine eilandstaten, een plek hebben aan de internationale tafel. Maar ik wil vanuit Afrikaans perspectief spreken. Wat de ontwikkeling van AI betreft, is er de laatste jaren veel vooruitgang geboekt. Tegelijkertijd worden de behoeften van Afrika op internationaal niveau onvoldoende erkend. We worden altijd gezien als een soort dumpplaats van het Westen. Terwijl we helpen AI-modellen te verfijnen om betere voorspellingen te kunnen doen en veel arbeidskrachten leveren. Desondanks hebben we geen stem in besluiten die écht de weg bereiden voor normen binnen de ontwikkeling en het verantwoord gebruik van AI. Bovendien zijn we in de meeste gevallen geen eigenaar van de gegevens die we voor grote multinationals genereren. Dat is een ernstige zaak.’
Kunt u een voorbeeld geven van de ongelijke verhouding die u beschrijft?
‘Eén verachtelijk voorbeeld is dat van bedrijven die zelfrijdende auto's produceren. Om allerlei gegevens van verkeerssituaties in steden te labelen – data die worden gebruikt om AI modellen te trainen - maken deze bedrijven gebruik van West-Afrikaanse mensen die in onder erbarmelijke omstandigheden leven. Ze laten hen werken onder de meest schrijnende omstandigheden, vergelijkbaar met de werkomgeving van sweatshops. Ze worden dus uitgebuit. Laat dit even tot je doordringen: deze mensen leveren belangrijke informatie voor de doorontwikkeling van een technologie waartoe zij nooit toegang zullen hebben. Bovendien krijgen ze bijna niets betaald. Daar is niets eerlijks en verantwoords aan.’
U maakt zich zorgen.
‘Zeker, en dit is niet het enige voorbeeld dat de kwetsbare positie van de regio Global South illustreert. Een ander voorbeeld is dat wij in Afrika geen eigenaar zijn van de gegevens die worden verzameld door grote westerse bedrijven als Amazon, Google, Facebook en Uber. Er is een ernstig probleem met data-uitwisseling in Afrika.
Zo bleek een digitale doktersapp, die voor het eerst in Tanzania werd geïntroduceerd en gebruikt, uiteindelijk waardeloos te zijn. Alle gegevens in de app waren afkomstig uit, of afgestemd op, Westerse landen. Het duurde bijna twee jaar voordat de app bruikbaar was in Tanzania. Terwijl de app op de markt werd gebracht en verkocht alsof het allerlei medische problemen zou oplossen. In feite veroorzaakte deze app nog veel meer problemen.’
Wat is volgens u vanuit Afrikaans perspectief het belangrijkste punt om in de aanbeveling van UNESCO aan de orde te stellen?
‘Wat ik miste vanuit het Europese perspectief is om de betrouwbaarheid van AI niet alleen te zien als een technische kwestie.’
Wat bedoelt u daarmee?
‘Ik denk dat het hard nodig is om duidelijker te definiëren wat we bedoelen met ‘trustworthiness’ ofwel betrouwbaarheid van AI. In Europa is er veel aandacht voor betrouwbaarheid in de zin van de robuustheid, veiligheid en nauwkeurigheid van AI-systemen. In die zin betekent het dan ook aansprakelijkheid en transparantie.
Terwijl ik sterk het gevoel heb dat betrouwbaarheid eigenlijk moet worden gezien als een sociaal-technisch concept. Dit betekent dat de keerzijde van betrouwbaarheid is: respect voor de gebruikers. Door het op deze manier te bekijken, is het duidelijk dat er een sterk verband is tussen betrouwbaarheid en principes als de menselijke maat, menselijk toezicht en besluitvorming, diversiteit en privacy. Beginselen die te maken hebben met de impact van AI-systemen op de mensheid en de manier waarop mensen met die systemen omgaan.
Het is belangrijk dat de AI-systemen niet alleen technisch betrouwbaar zijn. In mijn optiek betekent betrouwbaarheid vooral dat mensen in staat moeten zijn om AI-technologieën te vertrouwen. Techbedrijven moeten beseffen dat dit vertrouwen moet worden verdiend, in elke context, voortdurend, bij elke stap in het proces.’
Vertrouwen verdienen is lastig - wat stel je voor?
‘Laten we beginnen met reëel zijn, en beseffen dat een goede aanbeveling niet alleen inhoudt dat regeringen alle technische vakjes voor eerlijkheid, aansprakelijkheid enzovoort aanvinken. Want dat betekent niet noodzakelijk dat mensen het gevoel hebben dat ze AI-systemen kunnen vertrouwen. Ik zou graag een gezamenlijke inspanning zien om echt aan te tonen dat bij alle aspecten waar AI-technologie een impact heeft op de mensheid, deze impact gereguleerd is. Alleen zo ontstaat er vertrouwen. Dat is alleen geen makkelijke opgave, omdat veel landen verschillende ideeën hebben over hoe ze ervoor kunnen zorgen dat iedereen meedoet.’
Is het Afrikaanse perspectief goed vertegenwoordigd in deze UNESCO aanbeveling over de ethiek van AI?
‘Ik vind het opvallend en heel positief dat er vier deskundigen uit elke regio in Afrika deel uitmaakten van de expertgroep die het eerste ontwerp voor de aanbeveling heeft opgesteld. Dat is op zich niet uniek in de context van UNESCO. Wat ik wel uniek vind, is dat het ging om het samenstellen van een instrument over de ethiek van AI. Tot nu toe kwamen dit soort ethische richtlijnen voor AI allemaal uit het Westen. Voor deze richtlijnen was er hooguit één vertegenwoordiger uit Afrika. Meestal was de Afrikaanse vertegenwoordiging in de minderheid en was het evenwicht niet in balans. Of erger nog, het Afrikaanse perspectief werd toegevoegd als een soort bewijs van diversiteit. Maar dat is hier echt niet het geval, en ik vind dat zeer verfrissend.’
Het is ook verfrissend dat in de aanbeveling van UNESCO waarden de basis vormen - niet juridische normen.
'Dat is heel belangrijk voor mij. Waarden zijn geen rechtsnormen, maar ze worden wel geacht richting te geven aan de vorming van rechtsnormen. Bovendien is ethiek veel dynamischer dan internationaal recht. Alle wetgeving moet natuurlijk in overeenstemming zijn met mensenrechten en met het internationaal recht in het algemeen. Vooral met een technologie als AI, die zich razendsnel ontwikkelt, is het heel belangrijk om te kijken naar ethiek. Door waarden centraal te stellen, hebben we meer verfijnde perspectieven van over de hele wereld kunnen gebruiken om de aanbeveling inclusiever te maken.
Laat ik een voorbeeld geven van een nieuwe waarde die we hebben toegevoegd, die eerst 'leven in harmonie' werd genoemd. We hebben specifieke ideeën, concepten uit Afrika, Latijns-Amerika en Azië, geïntroduceerd en die gecombineerd tot een waarde die onderlinge verbondenheid erkent. Dit is een kernwaarde in Afrika. Wij noemen het Ubuntu, wat betekent: 'Ik ben, omdat wij zijn'. Dus, als ik een ander mens zijn of haar waardigheid ontzeg, ontken ik mijn eigen waardigheid. Een ander element dat we aan deze nieuwe waarde hebben toegevoegd, is een harmonieuze relatie tussen de mens en zijn natuurlijke omgeving. Dat is afkomstig uit Latijns-Amerika en Azië. Het is nauw verbonden met hun manier van kijken naar het leven.’
Dat is erg kenmerkend.
‘Ik ben er zeker van dat dit ontbreekt in de dominante noordelijke of Europese denkwijze. Ik denk dat deze zaken in Europa als vanzelfsprekend worden beschouwd, waardoor Europeanen er niet op hoeven te wijzen. Voor ons in Afrika is dit een regel die bepaalt wie we zijn, en wat we moeten doen. Het is belangrijk om ethische regels op zo’n manier te formuleren dat ze voor alle culturen toegankelijk zijn. Dat is wat deze aanbeveling zo uniek en volledig maakt. Bovendien zorgen we op deze manier voor inclusiviteit.’
Naast waarden zijn er ook beleidsmaatregelen. Wat is volgens u de belangrijkste, vooral voor Afrika?
‘Dat is capaciteitsopbouw, het onderwijzen van gewone burgers over de ethiek van AI. En natuurlijk kun je niet over de ethiek van AI praten als je niet weet wat AI is. Daarom proberen we nu in Zuid-Afrika een openbaar Digital Ambassador Program in te voeren. Dat is heel concreet en is in Rwanda met veel succes gedaan.
Er moet dus meer bewustzijn worden gecreëerd. Om echt iets te bereiken, moet je je richten op individuen. We moeten alle Afrikaanse mensen helpen om te begrijpen waarom het belangrijk is om over de ethiek van AI te praten. En we moeten hen laten inzien welke impact AI op hun leven heeft of wat het potentieel kan zijn. Op die manier zorgen we ervoor dat ze naast de mogelijke voordelen, ook de mogelijke ontwrichtende aard van AI-technologieën begrijpen.’
Dat is wereldwijd een grote uitdaging.
‘Bewustwording van de basisbeginselen van AI is slechts de eerste stap om de hele maatschappij erbij te betrekken. Je moet je echter realiseren dat er in Afrika heel veel mensen zijn die geen toegang hebben tot elektriciteit. Om hen te bereiken, moet je letterlijk mensen, 'ambassadeurs', naar hun gemeenschappen sturen.
Wat ik graag wil benadrukken, is dat we in de aanbeveling aangeven dat het belangrijk is dat we Public Awareness Programs hebben. We moeten ons echter ook realiseren dat Public Awareness Programs in een werelddeel als Afrika alleen mensen in steden bereiken. Terwijl een groot deel van de landen bestaat uit het agrarische gebieden. Zelfs in de steden hebben de armste mensen geen toegang tot deze Public Awareness Programs. Daarom heb je individuen nodig die contact maken met lokale gemeenschappen. Zij moeten met hen praten over AI en hen uitleggen wat de positieve en negatieve effecten zijn, en hoe het hun leven kan beïnvloeden.
Het is een uitdaging om over zo'n ingewikkelde kwestie te praten met mensen die nog nooit een mobiele telefoon hebben gezien en geen elektriciteit hebben. In principe maken zij zich hier vaak niet druk over, omdat zij andere, meer dringende behoeften hebben. Maar uiteindelijk zal ook hun leven erdoor worden beïnvloed. Helaas is dat nu eenmaal zo. In hun geval kan het betekenen dat zij steeds verder worden weggedrukt. Dat moeten we voorkomen. Dat is precies de reden waarom we ons best moeten doen om kennis over AI zo veel mogelijk te verspreiden onder de bevolking.’
Zelfs in Nederland, waar 98% van de huishoudens toegang heeft tot internet en mobiele telefoons gebruikt, is capaciteitsopbouw een grote uitdaging. Waar te beginnen in het platteland van Afrika?
‘Het is allereerst belangrijk om AI minder abstract te maken. In een internationale aanbeveling kunnen we er natuurlijk alleen maar op een abstractere manier over spreken om wereldwijde goedkeuring te krijgen. Maar om gewone mensen erbij te betrekken, moeten we het over concrete voorbeelden hebben. Johannesburg hangt nu bijvoorbeeld vol met bewakingscamera's. Wat we nodig hebben, en idealiter draagt deze aanbeveling daaraan bij, is dat steeds meer mensen zeggen: ‘Ik wil weten wat er met die informatie gebeurt. Dat is mijn recht: privacy en bescherming van mijn informatie.’ Als mensen deze vragen gaan stellen en erop staan dat ze de antwoorden krijgen, en begeleiding krijgen om te weten welke rechten ze hebben als het gaat om reageren, zullen we een echt ethische en wereldwijde AI-gemeenschap opbouwen.’