calendar tag arrow download print
Doorgaan naar inhoud

UNESCO van start met internationale aanbeveling over Ethiek en AI

Artikel
20 mei 2020

Foto: Shutterstock/Rathenau Instituut

Image
AI UNESCO

Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Het is daarom belangrijk internationaal samen te werken om de ontwikkeling van AI in goede banen te leiden. Maar hoe moet die samenwerking er eigenlijk uitzien? In deze aflevering van de blogserie #DeWereld&AI geven we een indruk van de discussies tijdens de eerste virtuele bijeenkomst eind april, van de UNESCO Ad Hoc expertgroep Ethics & AI.

In het kort:

  • De komende maanden agendeert het Rathenau Instituut de belangrijkste vragen over verantwoorde AI in een internationale context.
  • Hoe komen we tot internationale afspraken die eraan bijdragen dat mensenrechten voorop staan bij de ontwikkeling van AI?
  • Veel discussie bij de aftrap van de expertmeeting was er over het voorkomen van vooroordelen en discriminatie door AI-systemen, verantwoordelijkheid en beslissingsbevoegdheid en de vrijheid om met beleid te experimenteren.

AI is een mondiale aangelegenheid. Vraagstukken over ethiek en AI gaan dus automatisch over internationale (culturele) waarden. Die zijn complex, omdat er veel perspectieven zijn en verschillende belangen spelen. Hoe kom je dan toch tot goede internationale afspraken? Waar zouden die over moeten gaan?

Op zoek naar de dilemma’s en vragen die rondom deze vragen spelen, interviewt het Rathenau Instituut belangrijke (inter)nationale denkers en beleidsmakers op het gebied van ethiek en AI. Daarbij gaat bijzondere aandacht uit naar de rol van het onderwijs en de wetenschap.

UNESCO werkt momenteel aan een internationale aanbeveling over ethiek en AI: 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationale waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het Rathenau de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.

De komende maanden vragen we inspirerende denkers naar hun ideeën hierover. Elke blog passeert een ander thema de revue, zoals de verantwoordelijkheid van bedrijven bij inzet van AI, de rol van overheden en beleidsmakers, het bevorderen van technologisch burgerschap en de impact van AI op werk en onderwijs.

Meedoen aan deze serie?

Een groep van 24 internationale experts, benoemd door directeur-generaal Audrey Azoulay van UNESCO, de organisatie van de Verenigde Naties gericht op onderzoek, wetenschap en onderwijs, heeft eind april een eerste aanzet gemaakt voor een aanbeveling over ethiek en AI. Het is voor het eerst dat er wordt gewerkt aan een mondiaal instrument dat richting geeft aan ethische vraagstukken rondom kunstmatige intelligentie. “AI speelt overal ter wereld een steeds belangrijkere rol, een mondiaal instrument is daarom van groot belang”, stelt Melanie Peters van het Rathenau Instituut. 

Online aftrap en consulatieronde

Van 20 tot 24 april 2020 discussieerden 24 experts uit meer dan 20 landen over de basisprincipes, uitgangspunten en concrete beleidsaanbevelingen voor een aanbeveling over ethiek en AI. Dit gebeurt in overeenstemming met het mandaat dat de 193 lidstaten van UNESCO gaven tijdens de 40e zitting van de algemene conferentie in november 2019.

Peter Paul Verbeek (hoogleraar Universiteit Twente) is benoemd als expert vanuit Nederland. Het Rathenau Instituut heeft de rol van observer en volgt zo de discussies van de expertgroep. Om te komen tot een breed gedragen internationale aanbeveling, vindt op basis van een eerste draft in mei en juni een uitgebreide consultatie plaats. Dit geeft organisaties uit verschillende velden de mogelijkheid om hun eigen perspectieven in te brengen. Een definitieve tekst voor de aanbeveling wordt in november 2021 ter goedkeuring voorgelegd aan de UNESCO-lidstaten.

Hoewel de aanbeveling op de eerste plaats is gericht aan beleidsmakers en regeringen van de UNESCO-lidstaten, is het uitdrukkelijke streven dat de aanbeveling ook een normatief kader biedt voor het bedrijfsleven, wetenschappers en ingenieurs, non-profit organisaties en het maatschappelijk middenveld. Het doel is om collectieve verantwoordelijkheid te stimuleren en een interculturele dialoog op gang te brengen.

Het is belangrijk om het thema te bezien vanuit een holistisch perspectief.

AI als katalysator voor een betere wereld

Tijdens de discussies in de expertgroep kwamen verschillende grote vraagstukken aan bod. Een belangrijke vraag was bijvoorbeeld: hoe zorg je ervoor dat AI in alle landen van de wereld beschikbaar is en niet alleen de rijke landen van AI profiteren? En hoe zorg je ervoor dat AI een positieve impact heeft op al het leven, niet alleen mensenlevens, maar het héle ecosysteem? We moeten het thema bezien vanuit een holistisch perspectief en niet alleen nadenken over hoe kunstmatige intelligentie kan worden ingezet om de levens van mensen te verbeteren, zo onderstreept een aantal experts de brede context en inzet van de AI-vraagstukken.

Digitale kloof

De gesprekken gingen ook over de gevolgen van AI-technologie voor onderwijs en onderzoek. Hoe stimuleer je bijvoorbeeld de samenwerking tussen ontwikkelde landen en ontwikkelingslanden, zodat er op het gebied van onderwijs en onderzoek zoveel mogelijk kennis wordt gedeeld? En hoe gaat de samenleving om met de kloof tussen digitaal laag- en hooggeletterden? Beleid dat bijdraagt om de digitale kloof te dichten, zowel tussen mensen als tussen landen, verdient dan ook bijzondere aandacht, benadrukken experts uit Afrikaanse landen zoals Ghana, Kameroen en Marokko.

Door AI-beleid te toetsen in een soort lab-omgeving, een zogenaamde ‘regulatory sandbox’, is er meer vrijheid om met beleid te experimenteren.

Vooroordelen en discriminatie

AI is een technologische innovatie die veel kansen biedt en een enorme impuls kan geven aan een meer gelijke verdeling in de wereld. Maar er zijn ook grote uitdagingen, erkennen de experts. Hoe voorkom je dat algoritmes vooroordelen hebben, bijvoorbeeld over bepaalde etniciteiten of culturen? Het is van belang dat de datasets waar AI-technologie gebruik van maakt van hoge kwaliteit zijn en bij voorkeur geen vooroordelen veroorzaken – en dat deze datasets zo breed mogelijk beschikbaar zijn.

‘Regulatory Sandbox’

Daarnaast is het belangrijk om de wet- en regelgeving over AI-toepassingen te actualiseren. Er is al veel bestaande wetgeving waar AI zich toe moet verhouden, zoals mensenrechtenverdragen of, in Europa, de Algemene Verordening Gegevensbescherming. Er zijn echter ook aanpassingen nodig om de specifieke uitdagingen van AI het hoofd te bieden. De expertgroep hamert er op dat goed nagedacht moet worden over beleidsaanbevelingen die regeringen écht verder helpen op dit gebied. De wens is om AI- beleid veel vaker te kunnen toetsen in een soort lab-omgeving, een zogenaamde ‘regulatory sandbox’, waardoor er meer vrijheid is om te experimenteren met beleid. Dat komt vervolgens weer ten goede aan de wendbaarheid en het aanpassingsvermogen van beleidsmakers, waardoor zij sneller kunnen inspelen op AI-innovaties.

Waar ligt de grens?

Wie beslist en is verantwoordelijk?

Een ander discussiepunt dat veel stof deed opwaaien, ging over beslissingsbevoegdheid. Dan gaat het om de verantwoordelijkheid voor, en het menselijk toezicht bij, AI-technologie. Want hoewel iedereen het erover eens is dat mensen uiteindelijk verantwoordelijk zijn en niet het AI-systeem, is het balanceren op een dunne lijn.

In de meeste gevallen wordt AI gebruikt om patronen bloot te leggen en nemen mensen op basis daarvan een besluit. Maar de praktijk is weerbarstig en de realiteit is dat AI-technologie in een aantal gevallen, omwille van snelheid en efficiëntie, of in crisissituaties, al wel beslist zonder tussenkomst of toezicht van mensen. Denk bijvoorbeeld aan flitshandel op basis van algoritmes. De onafhankelijke experts zijn het erover eens dat er op dit gebied een onderscheid gemaakt moet worden tussen  complexe en relatief eenvoudige problemen. Waar ligt de grens die we echt niet over willen gaan, en hoe worden die grenzen gevat in richtlijnen?

Levensloop AI

Hoewel iedereen uit de expertgroep het er roerend over eens is dat AI-misbruik (het inzetten van AI voor kwaadaardige doeleinden) te allen tijde voorkomen moet worden, is het lang niet zo eenvoudig om dit scherp in een richtlijn te formuleren. Verschillende experts brengen in dat een algoritme bij aanvang wel kan deugen, maar het door ander gebruik alsnog onbedoelde, nadelige effecten kan hebben die bijvoorbeeld discriminatie in de hand werken. Soms is dat gevaar direct duidelijk. Maar het probleem is dat het lang niet altijd te voorzien is door een ontwikkelaar of opdrachtgever. Wie is er verantwoordelijk voor de levensloop en het gebruik van een algoritme? Wie volgt en monitort waartoe een AI- systeem wordt ingezet? Wat vergt dit voor wet- en regelgeving?

Zonder wettelijke kaders en toezichthouders kan er een grijs gebied ontstaan.

Verantwoordelijkheid bedrijfsleven

Ook de verantwoordelijkheid van private partijen en het bedrijfsleven kwam aan bod. Met name technologiebedrijven lopen vaak voorop met AI-toepassingen. Zij voegen  zich wellicht niet direct voegen naar een richtlijn als er geen mogelijkheden zijn om die richtlijn af te dwingen, bijvoorbeeld via wettelijke kaders en toezichthouders. Daardoor kan een grijs gebied ontstaan. Wat verschillende experts daarover inbrachten is dat als een bepaalde app door het overgrote deel van de bevolking wordt gebruikt, is het niet reëel om ervanuit te gaan dat de bevolking stopt met het gebruik van zo’n app enkel omdat zo’n organisatie zich niet houdt aan principes die in een internationale aanbeveling staan. Dus dan kunnen we wel spreken over het recht van een individu om geen persoonlijke data te delen. Maar in de praktijk zie je dat bedrijven de toegang van een app slechts mogelijk maken als je toestemming geeft om allerlei data te delen.

Genoeg uitdagingen nog en een internationale aanbeveling is slechst het begin. Maar het is zeker bemoedigend dat er op wereldniveau gesproken wordt over gezamenlijke afspraken om AI ontwikkelingen in goede banen te leiden.

Dit artikel gaf een indruk van de beraadslagingen van de expertgroep. Meer informatie over de expertgroep en het ontwerp van de aanbeveling zijn hier te vinden.