calendar tag arrow download print
Doorgaan naar inhoud

‘Beleidsexperimenten zijn belangrijk voor gecontroleerde en transparante AI-systemen’

Artikel
05 juni 2021
Image
Karine Perset - De Wereld & AI

Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Het is daarom belangrijk internationaal samen te werken om de ontwikkeling van AI in goede banen te leiden. Maar hoe moet die samenwerking er eigenlijk uitzien? In deze aflevering van de blogreeks #TheWorld&AI praten we met Karine Perset, hoofd van de OESO AI Policy Observatory. 'Samenwerking op internationaal niveau is noodzakelijk om mensgerichte AI te waarborgen. Verschillende organisaties hebben verschillende mandaten en sterke punten. Die moeten we aanvullend inzetten om verantwoorde AI te stimuleren.’

In het kort:

  • De komende maanden agendeert het Rathenau Instituut het mondiale belang van verantwoorde AI.
  • Karine Perset, hoofd van OESO.AI Policy Observatory, benadrukt het belang van beleidsexperimenten om AI-systemen op een transparante manier te testen.
  • Volgens Perset moet er een flexibele bestuurshiërarchie komen die afhankelijk is van de hogere of lagere risico's die gepaard gaan met de ontwikkeling en invoering van AI-systemen.

AI is een mondiale aangelegenheid. Vraagstukken over ethiek en AI gaan dus automatisch over internationale (culturele) waarden. Die zijn complex, omdat er veel perspectieven zijn en verschillende belangen spelen. Hoe kom je dan toch tot goede internationale afspraken? Waar zouden die over moeten gaan?

UNESCO werkt momenteel aan een internationale aanbeveling over ethiek en AI: 24 experts uit de hele wereld schrijven aan mondiale richtlijnen die in november 2021 worden voorgelegd aan de 195 lidstaten. Het Rathenau Instituut is aangewezen als nationale waarnemer bij de totstandkoming van de internationale aanbeveling. Vanuit die rol krijgt het Rathenau de gelegenheid om mee te kijken en inhoudelijk commentaar in te brengen.

De komende maanden vragen we inspirerende denkers naar hun ideeën; welke aspecten vinden zij van belang voor deze internationale discussie? Elke blog komt een ander thema aan bod, zoals de verantwoordelijkheid van bedrijven bij inzet van AI, de rol van overheden en beleidsmakers, het bevorderen van technologisch burgerschap en de impact van AI op werk en onderwijs.

Over Karine Perset

Karine Perset

Karine Perset is hoofd van het AI Policy Observatory van de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), onderdeel van de OESO Division for Digital Economy Policy in Parijs. Zij richt zich op trends in de ontwikkeling en verspreiding van AI en op de kansen en uitdagingen die AI oplevert voor het overheidsbeleid. Zij stuurt  het OESO-netwerk van deskundigen aan op het gebied van AI (ONE AI) en het AI Policy Observatory van de OESO (OECD.AI). Eerder was zij adviseur van het Governmental Advisory Committee (GAC) van ICANN en daarvoor adviseur van het Directorate for Science, Technology and Innovation (STI) van de OESO.

Over de OECD AI Principles en OECD.AI

De OESO AI Principles, die in mei 2019 werden aangenomen, zijn de eerste intergouvernementele principes op het gebied van AI waar een politieke verbintenis in besloten  ligt. De principes zijn bedoeld om een breed en gedeeld kader voor overheidsbeleid en internationale samenwerking tot stand te brengen dat een verantwoord beheer van betrouwbare AI waarborgt. In februari 2020 heeft de OESO een AI Policy Observatory opgericht om te helpen bij het toepassen van de principes.

De OESO AI Principles worden gepresenteerd als een kader om beleidsmakers duidelijkheid te verschaffen - hoe moeten landen de principes in de praktijk brengen?
‘Dit is nog maar het begin. De volgende stap is om de principes om te zetten in actie en concrete partnerschappen. Dat gaan we doen met praktische richtlijnen voor implementatie en door de ontwikkeling van onze AI policy Observatory. Met het AI Policy Observatory willen wij een platform  creëren voor internationale samenwerking, kennisuitwisseling en dialoog: voor de lange termijn én met meerdere belanghebbenden. Wij geloven dat zo’n omgeving nodig is om ervoor te zorgen dat we AI-beleidskwesties en oplossingen gezamenlijk bespreken, en ook onze vooruitgang kunnen meten. Wij geloven dat andere landen, naast de oorspronkelijke 40, zich ook bij deze principes zullen aansluiten. We denken dat ze nuttig zijn voor de politieke processen die zich op hoog niveau bij voltrekken, zoals bij de G20 en G7.’

Hoe verhouden de OESO AI Principles zich tot de UNESCO Recommendation on the Ethics of AI?
‘Het is duidelijk dat we, om op mondiaal niveau mensgerichte AI te waarborgen, al onze sterke punten en mandaten op aanvullende wijze moeten afstemmen op ditzelfde einddoel. Want verschillende organisaties hebben verschillende mandaten en bovendien andere sterke punten. Daarom moedigen wij samenwerking aan. Velen van ons delen dezelfde waarden en einddoelen; de belangrijkste daarvan zijn het halen van duurzame ontwikkelingsdoelen en het waarborgen van mensenrechten. Daarom zijn bijvoorbeeld de Europese Commissie, de Raad van Europa, UNESCO en het Institute of Electrical and Electronics Engineers (IEEE) betrokken bij ons werk, en zijn wij op onze beurt betrokken bij hun werk. We willen allemaal de risico's van AI beperken en de vruchten ervan plukken. Ons gemeenschappelijke doel is dat economieën en samenlevingen de voordelen van betrouwbare AI benutten, zodat niemand achterblijft.’

De OESO stimuleert beleid voor overheden, het bedrijfsleven, academici en ngo's om het economische en sociale welzijn van mensen te verbeteren. In ethische- en beleidsdiscussies over AI speelt de rol van het bedrijfsleven - met name techbedrijven - echter een grote rol. Wat mogen we verwachten van multinationals als het gaat om de verantwoorde ontwikkeling en inzet van AI?
‘Ons doel is om praktische richtlijnen en gemeenschappelijke procedures vast te stellen om alle verschillende betrokkenen  op het gebied van AI - waaronder uiteraard multinationals - te helpen om betrouwbare AI te implementeren. Daartoe hebben we drie soorten instrumenten ontwikkeld: procesgerichte, technische en educatieve of bewustmakingsinstrumenten. De OESO werkt actief aan instrumenten om betrouwbare AI te implementeren voor verschillende belanghebbenden.’

Verwacht u dat techbedrijven een extra inspanning leveren?
'Wat we zien is de ontwikkeling van sectorspecifieke gedragscodes, bijvoorbeeld voor de financiële sector. Daarnaast zetten techbedrijven interne teams op die zich richten op de ethiek van AI. organisaties voor standaardisatie en technologiebedrijven ontwikkelen tal van instrumenten om specifieke AI-gerelateerde problemen aan te pakken. Het gaat onder meer om: het detecteren van vooroordelen, ofwel bias detection, het uitleggen van AI, ofwel explainable AI, en instrumenten die de robuustheid van AI-systemen verbeteren en hen beveiligen tegen aanvallen. Deze instrumenten zijn gebaseerd op technische normen en technisch onderzoek. Bovendien zijn ze vaak open source.’

Wat zijn de volgende stappen voor de OESO om te helpen beleid voor verantwoorde AI vorm te geven?
‘We zullen het AI Policy Observatory verder ontwikkelen als een integrale hub voor overheidsbeleid op het gebied van AI, op een multi-stakeholder manier. In het AI Policy Observatory van de OESO combineren we middelen uit de hele organisatie met die van partners uit alle groepen van belanghebbenden om multidisciplinaire, empirisch onderbouwde beleidsanalyses over AI te verstrekken. Bovendien willen we de dialoog tussen de verschillende belanghebbenden vergemakkelijken. Het Observatory omvat een live database van AI-beleid en -initiatieven die interactief kunnen worden gedeeld, bijgewerkt en vergeleken. Op dit moment bevat het de grootste verzameling van nationaal AI-beleid - met meer dan 600 beleidsmaatregelen uit 60 landen en de EU.’

Kunnen we een voorproefje krijgen van deze hub?
‘In reactie op de snelle ontwikkelingen in AI-beleid hebben wij al een blog gelanceerd, de AI wonk.  Dit is een online plek waar het OESO Network of Experts on AI (ONE AI), leden van GPAI en gastsprekers hun ervaringen en onderzoek delen. Het is een doorlopend gesprek over de AI-beginselen van de OESO. Het gaat over hoe betrouwbaar AI-beleid, dat een positieve invloed heeft op individuen, gemeenschappen en economieën, het beste kan worden gedeeld en vormgegeven.

Verder werken we aan een gebruiksvriendelijk raamwerk om AI-systemen te classificeren. Een overzicht van deze lopende werkzaamheden is ook te vinden op de AI Wonk blog. Dit kader kan EU-beleidsmakers over de hele wereld helpen om een weg te vinden door de complexe overwegingen over ethiek, beleid en regelgeving in verband met AI-systemen.’

Wat zijn de grootste dilemma's waarmee u wordt geconfronteerd bij het opstellen van regelgeving voor AI?
‘Regelgeving vergt zorgvuldige afwegingen, omdat AI een opkomende technologie is, kan regelgeving te vroeg zijn en het te rigoureus inperken. Gezien de snelle ontwikkelingen op het gebied van AI betekent dit dat we met regelgeving een beleidsomgeving moeten creëren die flexibel genoeg is om deze ontwikkelingen bij te houden. Het luistert heel nauw om regelgeving te maken die innovatie bevordert en tegelijkertijd veiligheid waarborgt. Bovendien moet de regelgeving rechtszekerheid bieden, wat een belangrijke uitdaging is. Onze ervaring is dat we langzaam te werk moeten gaan bij het reguleren van een opkomende technologie als AI. Te strenge regelgeving kan een belemmering vormen voor innovaties die kunnen bijdragen aan de veiligheid en betrouwbaarheid van een technologie (bijvoorbeeld het detecteren van vooroordelen).’

Kunt u me meer vertellen over hoe de OESO dit voor zich ziet?
'In het werk van de OESO leggen we de nadruk op de rol van experimenten om te zorgen voor gecontroleerde en transparante omgevingen om AI-systemen te  testen. Op die manier kunnen AI gebaseerde bedrijfsmodellen, die oplossingen voor mondiale uitdagingen bevorderen, tot bloei komen. Beleidsexperimenten kunnen volgens een start-up-aanpak werken. Dit betekent dat experimenten starten, geëvalueerd en aangepast worden, en pas later worden opgeschaald, teruggeschroefd of zelfs stopgezet, afhankelijk van de testresultaten.’

Er zijn veel typen AI-systemen en die brengen zeer verschillende overwegingen op het gebied van beleid en regelgeving, en verschillende kansen en uitdagingen met zich mee, toch?
‘Zeker. Denk aan de verschillen tussen een controlekamer van een waterzuiveringsplan, waar AI de chemische behandeling van het water controleert, en de ontwikkeling van een zelfrijdend voertuig. Of de verschillende zorgen wanneer we het hebben over predictive maintenance van machines in de productie en een video-aanbevelingssysteem voor kinderen. Al deze voorbeelden roepen zeer verschillende beleidsoverwegingen op. Daarom is er behoefte aan een gemeenschappelijk begrip van de omvang van de risico's.’

Kunt u dit uitleggen?
‘Onlangs schreef Lord Tim Clement Jones (lid van het Britse Hogerhuis, en lid van ONE AI) een blog post over de complexiteit van de beoordeling van de aard van AI-toepassingen en hun context. Hetzelfde geldt voor de daaruit voortvloeiende risico's van de toepassing ervan op modellen van bestuur en regelgeving. Om hem te citeren: ‘Als we streven naar een op risico's gebaseerde aanpak van regelgeving en governance, moeten we het risico kunnen kalibreren. Dit zal op zijn beurt het noodzakelijke controleniveau bepalen.’

Uit een dergelijke ijking moet een hiërarchie van governance volgen, afhankelijk van het oplopende risico. Bij een lager risico kunnen actoren kiezen voor een flexibele aanpak, zoals een vrijwillige ethische code zonder hard nalevingsmechanisme. Wanneer er een hoger risico is, zullen overheden een betere corporate governance moeten instellen, met behulp van bedrijfsrichtlijnen en -normen met duidelijke openbaarmakings- en nalevingsmechanismen.’

Kunt u tot slot enkele goede beleidspraktijken noemen?
‘Canada heeft bijvoorbeeld een Algorithmic Impact Assessment instrument ontwikkeld om de mogelijke gevolgen van algoritmen voor burgers te beoordelen. En de Japanse AI Utilization Guidelines bieden methoden om de begrijpelijkheid van de uitkomsten van AI-systemen te vergroten. Deze verschillende benaderingen zijn nuttig omdat zij beleidsmakers ideeën aanreiken, maar wij denken niet dat er in dit stadium één weg te bewandelen is die de voorkeur verdient. Dit komt omdat we ons in een vroeg stadium van de ontwikkeling van deze technologie bevinden. Daarom kunnen we nog niet spreken van een ‘goede’ of ‘beste beleidspraktijk’. Wat ik echter optimistisch vind, is dat deskundigen, beleidsmakers en regelgevers allemaal erkennen dat AI-systemen in verschillende mate risico’s met zich meebrengen. Bovendien is er bereidheid om ervaringen te delen en van elkaar te leren. Dat is iets om te koesteren en het zegt mij dat we op de goede weg zijn.’