calendar tag arrow download print
Doorgaan naar inhoud

Hoe reguleren we manipulatieve AI?

Artikel
22 juni 2022
AI en manipulatie Ethiek Kunstmatige intelligentie

Foto: Andy Kelly - Unsplash

Image
Intelligente machines in praktijk

In deze blog bespreken we waarom en hoe kunstmatige intelligentie (AI) gereguleerd moet worden. Daarvoor spraken we met Paul Nemitz, hoofdadviseur voor het directoraat-generaal Justitie en consumentenzaken van de Europese Commissie, en Yordanka Ivanova, juridisch en beleidsmedewerker voor het directoraat-generaal Communicatienetwerken, inhoud en technologie van de Europese Commissie. Beiden werkten aan de concept-AI-verordening van de Europese Commissie, waarin een volledig verbod op bepaalde manipulatieve toepassingen van AI wordt voorgesteld.

In het kort:

  • Deze vierde blog in de blogserie ‘AI en manipulatie’ gaat over de concept-AI-verordening.
  • Momenteel wordt in het Europees Parlement en in de Raad onderhandeld over deze verordening.
  • De Europese Commissie onderkent dat waarden als individuele vrijheid en autonomie door manipulatieve AI op het spel staan.

Op welke manieren is AI manipulatief?

Paul Nemitz onderscheidt drie categorieën van manipulatieve AI. De eerste categorie zijn computers die gebruikers doen geloven dat ze te maken hebben met een mens. Nemitz: ‘Technologie maakt het nu mogelijk om mensen na te bootsen in de vorm van spraak of geschreven tekst. Kunstmatige stemmen kunnen levensecht klinken, alsof je tegen een ander mens praat. Maar dat is geen onschuldige zaak. Dit is een ethisch, filosofisch, theologisch en wettelijk probleem. Daarom is het belangrijk dat we bindende, afdwingbare en strafrechtelijke regels hebben, die ervoor zorgen dat mensen altijd weten wanneer ze met een machine of met een mens te maken hebben.’

Een tweede categorie van manipulatieve AI wordt gevormd door zogenaamde persuasive design elementen. Nemitz legt uit: ‘Zelfs wanneer mensen weten dat ze met een machine te maken hebben, kunnen zij gemanipuleerd worden. Dat komt doordat technologieën worden geprogrammeerd om te misleiden. Er bestaat een hele school rond persuasive design, die zich onder meer bezighoudt met manipulatie voor commerciële doeleinden.

“Kunstmatige stemmen kunnen levensecht klinken, alsof je tegen een ander mens praat.”

De derde categorie is volgens Nemitz het economische motief achter gerichte marketing. ‘Er is een enorme commerciële drijfveer om de grens van wat misschien acceptabele marketing is te overschrijden. Niet meer acceptabel is bijvoorbeeld manipulatieve marketing die misbruik maakt van arme of minder begaafde mensen. Het is normaal geworden om mensen te profileren en te proberen hun gedrag, meningen en gemoedstoestand te voorspellen en te beïnvloeden met het doel meer winst te behalen. Dit is een serieus probleem. Ethiek heeft op dit vlak gefaald. Om dit probleem aan te pakken hebben we afdwingbare wetten en zware sancties nodig. Gelukkig zijn leden van het Europees Parlement er in toenemende mate van overtuigd dat gerichte reclame die gebaseerd is op gegevens over iemands individuele eigenschappen een slechte zaak is.’

Waarom zou manipulatieve AI gereguleerd moeten worden?

‘Wat op het spel staat,’ zegt Nemitz, ‘is ons idee van de mens zoals ons dat is doorgegeven vanuit de Verlichting. Onze samenlevingen zijn gegrond op de gedachte dat wij als mensen vrij en autonoom zijn, zowel individueel als collectief in de democratie. Maar manipulatieve technologieën ondermijnen onze vrijheid en autonomie – en daarmee ook het mensbeeld dat het fundament van de westerse samenleving vormt. Tech-absolutisten brengen ons terug naar een tijd van voor de Verlichting, door ons aan te leren simpelweg op technologie te vertrouwen zonder daarbij nog om redenen of uitleg te vragen.’

Deze zorg om de positie van de mens ligt ten grondslag aan de AI-verordening die de Europese Commissie in April 2021 naar buiten bracht. Yordanka Ivanova legt uit: ‘De verordening stelt de mens centraal, zodat het controle kan uitoefenen en vrij is in zijn persoonlijke autonomie en besluitvorming.’

Wat is het doel van de AI-verordening?

Ivanova vertelt ons wat meer over de Europese AI-verordening. ‘Natuurlijk hadden we al de AVG als belangrijkste wettelijk kader rond gegevensbescherming. En verder zijn er de Europese strategie rond AI uit 2018 en de AI White Paper uit 2020. Maar deze bieden alleen aanbevelingen en ethische richtlijnen – ze zijn niet bindend. Die werden daarom als onvoldoende beschouwd om alle ontwikkelingsprocessen en gebruiken van AI in goede banen te leiden.’

‘De AI verordening van april 2021 dient als toevoeging aan bestaande wettelijke kaders, zoals de AVG en consumentenbeschermingsregelgeving. De verordening stelt een horizontale wetgeving rond AI voor, wat betekent dat het toepasbaar is op alle gebruiksdomeinen van AI en op de hele AI-cyclus. Het is de bedoeling dat beperkingen proportioneel zijn, door alleen die praktijken te verbieden die een onacceptabel risico vormen dat niet verzoenbaar is met de fundamentele rechten en waarden in de EU. Voor lagere risico’s stellen we maatregelen, vereisten en risicomanagementprocedures voor. We willen niet voorbij het strikt noodzakelijke gaan, omdat we innovatie niet in de weg willen zitten.’

Hoe pakt de AI-verordening manipulatie aan?

In twee van de verboden die worden voorgesteld in de AI-verordening is sprake van manipulatie. Namelijk het verbod op subliminale technieken en het verbod op het uitbuiten van kwetsbaarheden, wanneer deze praktijken mogelijk tot fysieke of psychologische schaden leiden.

Ivanova legt uit waarom de Europese Commissie voor deze verboden koos. ‘Onze zorg rond manipulatieve AI komt voort uit de wens om AI toekomstbestendig te maken. Maar manipulatieve praktijken komen vandaag de dag al voor. Veel AI-toepassingen worden op dit moment deel van ons dagelijks leven en verzamelen onze persoonlijke informatie. Neem digitale assistenten zoals Siri of Alexa. Zij kunnen beïnvloeden wat wij zien en wat wij kiezen, waardoor zij een risico vormen voor onze autonomie.’

Het reguleren van manipulatie is geen eenvoudige klus, geeft Ivanova toe. ‘Ten eerste is het moeilijk om het concept manipulatie naar specifieke verboden te vertalen. Verder is het een uitdaging omdat niet alle vormen van manipulatie schadelijk zijn. En omdat de verordening niet specifiek gericht op één technologie diende te zijn, moesten we de regelgeving rond manipulatie zo algemeen mogelijk formuleren.’

“Onze zorg rond manipulatieve AI komt voort uit de wens om AI toekomstbestendig te maken.”

Kan schadelijke AI verboden worden voordat er daadwerkelijk schade optreedt?

De verboden op manipulatieve en uitbuitende AI zijn alleen van toepassing op AI die fysieke of psychologische schade aanrichten. Maar of een AI-toepassing schade kan aanrichten is niet altijd op voorhand duidelijk. Een verbod gebaseerd op schade lijkt daarom problematisch.

Ivanova verheldert de zaak: ‘Schade is inderdaad een belangrijk element in de verboden op manipulatieve AI, maar het is niet noodzakelijk dat de schade ook daadwerkelijk heeft plaatsgevonden. Daarom zijn de verboden geformuleerd als: iets “kan schade aanrichten” of “er is een mogelijkheid op schade”. Zelfs als de schade uiteindelijk nooit zou hebben plaatsgevonden of als deze niet bedoeld was door de ontwikkelaar, is het voor een verbod voldoende dat er sprake is van een mogelijkheid tot schade. Natuurlijk is het altijd moeilijk om vervolgens te bewijzen dat er zo’n mogelijkheid is, dat geldt voor alle wettelijke verboden. Daarom lijkt het mij belangrijk om publieke partijen de autoriteit te geven om AI-toepassingen te keuren.’

Wat is de volgende stap?

Er volgden veel reacties op de publicatie van het voorstel van de Europese Commissie voor de AI-verordening. Ivanova: ‘Over het algemeen kreeg het voorstel veel steun, zelfs uit commerciële hoek. Maar natuurlijk is niet iedereen blij met de voorgestelde regelgeving. Er zijn NGO’s die nog veel verder willen gaan, terwijl sommige bedrijven en overheden juist baat hebben bij minder regelgeving rond AI. We hebben geprobeerd een balans te vinden.’

Nemitz: ‘Op het moment wordt over dit voorstel onderhandeld binnen het Europees Parlement en de Raad. Ik denk dat we optimistisch kunnen zijn dat dit proces met de nodige snelheid verder gaat en dat beleidsmakers erop toe zullen zien dat dit niet alleen symboolpolitiek was, maar dat er daadwerkelijk een wettelijk kader rond AI en manipulatie komt.’

Gerichte reclames, gepersonaliseerde nieuwsoverzichten of slimme apparaten in huis: artificiële intelligentie (AI) creëert mogelijkheden om menselijk gedrag te beïnvloeden. De Europese Commissie heeft een volledig verbod op bepaalde (schadelijke) vormen van manipulatieve AI voorgesteld. In een blogserie gaat het Rathenau Instituut met experts in gesprek over manipulatieve AI en de wenselijkheid van deze opkomende technologie.

De vlag van de Europese Unie

This project has received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 813497

Deze blog is geschreven door Rosalie Waelen, promovendus aan de Universiteit Twente op het gebied van de ethiek van kunstmatige intelligentie.

 

Andere artikelen uit de blogreeks: