calendar tag arrow download print
Doorgaan naar inhoud

AI en manipulatie: de ethische vragen

Artikel
08 april 2022
AI en manipulatie AI Ethiek

Foto: Shutterstock

Image
Een camera herkent door middel van AI gezichten op straat

Wat bedoelen we wanneer we zeggen dat artificiële intelligentie (AI) manipuleert? En waarom is manipulatie een moreel probleem? In deze eerste blog van onze blogserie ‘AI en manipulatie’ interviewen we dr. Michael Klenk (TU Delft) en dr. Tjerk Timan (TNO) over de ethische vragen bij manipulatieve AI.

In het kort:

  • Deze eerste blog in de blogserie ‘AI en manipulatie’ gaat over de ethische vragen bij manipulatieve AI.
  • Manipulatie is een vorm van beïnvloeding, die effectiever en breder toepasbaar wordt door het gebruik van AI.
  • Er bestaan verschillende visies op de vraag of manipulatie moreel verwerpelijk is.

Wat is manipulatie?

Om een goed debat over manipulatieve AI te kunnen voeren moeten we eerst ophelderen wat manipulatie zelf eigenlijk inhoudt. Manipulatie is een bekend begrip in ons dagelijkse taalgebruik, maar filosofen gebruiken er verschillende definities voor.

Filosoof dr. Michael Klenk, werkzaam aan de TU Delft, beschrijft manipulatie als volgt: ‘Manipulatie is een vorm van beïnvloeding. In de academische literatuur wordt het vaak gezien als een midden tussen rationele overtuiging en dwang. Dwang ontdoet ons volledig van onze vrije keuze, terwijl er bij manipulatie nog een zekere mate van vrije keuze aanwezig is.’

Zelf definieert Klenk manipulatie als ‘achteloze beïnvloeding’. ‘Goede vormen van beïnvloeding gaan gepaard met een zekere zorg voor de beweegredenen van de ander. Manipulatie is achteloos in die zin dat het bestaat uit het ontbreken van dergelijke zorg. De manipulerende partij wil een bepaald resultaat bereiken, en dat is het enige dat ertoe doet.’

Dr. Tjerk Timan, die zich als beleidsanalist bij TNO bezighoudt met het beleid en de ethiek van AI, ziet manipulatie als een soort strategie: ‘De manipulerende partij weet iets wat de ander niet weet en maakt daar misbruik van.’ Er is dus sprake van een onevenwicht in kennis tussen degene die manipuleert en de persoon die gemanipuleerd wordt, vertelt Timan. ‘Het gaat om een onbewustheid. Manipulatie is het beïnvloeden van mensen op zo’n manier dat ze iets doen waar ze eigenlijk niet helemaal, of zelfs helemaal niet, achterstaan.’

Deze twee definities hebben betrekking op verschillende aspecten van manipulatie. Klenk gaat uit van de rol van de manipulerende partij, die volgens hem achteloos anderen beïnvloedt. Timan kijkt ook naar de rol van degene die gemanipuleerd wordt. Volgens Timan werkt manipulatie als strategie alleen, wanneer er sprake is van een gebrek aan kennis of bewustheid aan de kant van de gemanipuleerde persoon.

Waarom is manipulatie slecht?

Manipulatie wordt niet altijd als probleem gezien wanneer we uitgaan van de gevolgen van manipulatie voor de persoon die gemanipuleerd wordt. Manipulatie kan namelijk worden ingezet voor positieve doeleinden – bijvoorbeeld om mensen te stimuleren gezonder te eten. In zulke gevallen wordt manipulatie vaak ook wel nudging genoemd. In sommige gevallen zouden we dus kunnen concluderen dat iemand beter af is wanneer hij of zij gemanipuleerd wordt.

Maar zoals we al zagen kan manipulatie ook gedefinieerd worden vanuit het perspectief van de manipulerende persoon. Het is dan de handeling zelf of de intentie erachter die van belang is. Wie manipulatie als handeling verwerpelijk vindt, is zelfs afkeurend over manipulatie die tot positieve uitkomsten leidt. Klenk neemt dit standpunt in: ‘De achteloosheid die met manipulatie gepaard gaat vind ik ten alle tijden een tekortkoming van de persoon die manipuleert.’

Hoe verschilt manipulatie door AI van andere vormen van manipulatie?

Wat AI-manipulatie onderscheidt van zogezegde traditionele manipulatie is de efficiëntie. Aan de hand van grote hoeveelheden data kan AI heel gericht het gedrag van een individu beïnvloeden. Bovendien kan men online een veel groter publiek beïnvloeden dan bijvoorbeeld met een reclamebord langs de snelweg. Klenk noemt dit ‘versterkende factoren’.

Volgens Klenk is digitale manipulatie niet slechter dan andere vormen van manipulatie. ‘Ik zie geen moreel verschil. Op zichzelf is manipulatie door AI niet slechter. Maar het kan zo zijn dat manipulatie door AI meer impact heeft, of zorgt voor een toename van manipulatieve beïnvloeding in ons leven. Dat is een empirische vraag die onderzocht moet worden.’

Wat zijn de ethische vragen bij manipulatieve AI?

Als manipulatie door AI vanuit een moreel oogpunt niet verschilt van andere vormen van manipulatie, waarom maken we ons er dan toch zoveel zorgen om? Timan legt uit dat dit komt doordat manipulatieve AI verschillende nieuwe ethische problemen en vragen met zich meebrengt. Manipulatieve AI roept bijvoorbeeld vragen op over gegevensbescherming, toepasbaarheid en schaalbaarheid. Timan: ‘Wanneer je AI inzet om gedrag te manipuleren, zelfs als dat met de beste bedoelingen is, blijft de vraag: mag je de kennis die je met AI over mensen vergaart, inzetten om mensen vervolgens te manipuleren?’

Een ander issue dat Timan noemt is het risico dat nieuwe problemen op het individu worden afgewenteld – ook wel ‘responsabilisering’ genoemd. ‘Neem de stappenteller. AI is een handig middel om mensen te stimuleren om meer te bewegen, maar het leidt ook tot een discours als “het is je eigen schuld dat je ongezond bent, kijk maar naar de data”.’

Het risico dat de verantwoordelijkheid voor problemen afgewenteld wordt op het individu hangt samen met een groter cultureel probleem, zegt Timan. ‘Het grootste culturele probleem rond manipulatieve AI vind ik digitaal kolonialisme. Via bijvoorbeeld content filtering verspreidt AI op allerlei plekken Amerikaanse waarden. Dit vormt een subtiele, maar doordringende vorm van manipulatie.’ Denk hierbij aan het soort onderwerpen dat voorrang krijgt op de news feed van onze sociale media.

Timan: ‘Op individueel niveau zit het grootste probleem volgens mij in het feit dat de keuzevrijheid steeds kleiner wordt. Vooral door de opkomst van immersieve technologieën, zoals spraakgestuurde apparaten als Alexa of Google Home, hebben we steeds minder vaak een opt-out. Een opt-out betekent de keuze hebben om ergens niet aan mee te doen of om niet geanalyseerd te worden.’

Klenk wijst op eenzelfde probleem: ‘We gebruiken AI voornamelijk om producten gebruiksvriendelijker te maken. Er zit echter een zekere spanning tussen gebruiksvriendelijkheid en manipulatie. AI reduceert complexiteit van websites en interfaces om keuzes makkelijker te maken, maar daarmee ontneemt het ons de mogelijkheid om voor onszelf te denken. Het staat in contrast met de menselijke autonomie.’

Wat betekenen deze ethische vragen voor AI-beleid?

Hoewel manipulatieve AI ethische vragen oproept, bestaat er geen eenduidig antwoord op de vraag waarom manipulatie een moreel probleem is. Wanneer we manipulatie als handeling op zichzelf afkeuren moet manipulatieve AI zo veel mogelijk en bij voorbaat voorkomen worden. Maar wanneer we manipulatie enkel verwerpen als zij negatieve consequenties heeft, moeten alleen specifieke gevallen van manipulatie aangepakt worden.

In april 2021 bracht de Europese Commissie een conceptverordening omtrent AI naar buiten. Hierin stelt de Commissie onder andere voor om manipulatieve AI die fysieke of psychische schade zou kunnen toebrengen te verbieden. Dit verbod op manipulatieve AI doet vermoeden dat de Europese Commissie manipulatie – de handeling als zodanig – afkeurt. Maar in feite is het hier te doen om de mogelijke gevolgen van AI. Manipulatie die weinig schade toebrengt wordt als geoorloofd beschouwd.

‘De AI Act is een raar beestje.’ beaamt Timan. ‘We zien voor het eerst in lange tijd dat de Commissie afstapt van een vorm van beleid die alleen van risico uitgaat. De Commissie doet een rare, gewaagde zet, door bepaalde toepassingen volledig te verbieden.’

Over de focus van de Europese Commissie op schade zegt Timan: ‘We zien dat manipulatie wordt afgekeurd omwille van haar uitkomst. Die utilitaristische invalshoek met haar focus of risico’s is heel Angelsaksisch. Hij is problematisch in dit geval, omdat je het probleem krijgt van bewijslast. Ga als individu maar eens aantonen dat je psychologische schade hebt ondervonden van een of ander algoritme dat niet te achterhalen is, op een sociale-media-platform dat je vrijwillig hebt geïnstalleerd. Sterker nog, de meeste schadelijke gevolgen vinden plaats op de lange termijn en bouwen zich op, terwijl de AI-verordening alleen naar individuele vormen van schade kijkt.’

Gerichte reclames, gepersonaliseerde nieuwsoverzichten of slimme apparaten in huis: artificiële intelligentie (AI) creëert mogelijkheden om menselijk gedrag te beïnvloeden. De Europese Commissie heeft een volledig verbod op bepaalde (schadelijke) vormen van manipulatieve AI voorgesteld. In een blogserie gaat het Rathenau Instituut met experts in gesprek over manipulatieve AI en de wenselijkheid van deze opkomende technologie.

De vlag van de Europese Unie

Deze blog is geschreven door Rosalie Waelen, promovendus aan de Universiteit Twente op het gebied van de ethiek van kunstmatige intelligentie. 

This project has received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 813497.

 

Gerelateerde publicaties: