calendar tag arrow download print
Doorgaan naar inhoud

We moeten leren leven met deepfakes

Artikel
14 oktober 2021
deepfake fake news Kunstmatige intelligentie

Illustratie uit rapport Tackling deepfakes in European policy

Image
Deepfakes infographic

Op het internet worden we steeds vaker geconfronteerd met foto’s, video’s en geluidsfragmenten die niet echt blijken. Ook zijn die steeds moeilijker van echt te onderscheiden. Onze virtuele identiteit moeten we daarom beter gaan beschermen. Maar vooral moeten we ervoor waken dat we straks helemaal niks meer vertrouwen. Dat is de strekking van een rapport dat het Rathenau Instituut deze week presenteert in het Europees Parlement.

In het kort:

  • Deepfakes kunnen op bijzonder vervelende en onwenselijke manieren gebruikt worden.
  • De wetgeving die onze persoonlijke levenssfeer in de fysieke wereld moet beschermen, schiet in de digitale wereld duidelijk tekort.
  • In een samenleving vol deepfakes is het essentieel dat iedere burger de weg naar betrouwbare bronnen weet te vinden.

Met kunstmatige intelligentie wordt het steeds eenvoudiger om audiovisueel materiaal te maken van mensen die iets zeggen of doen wat ze in werkelijkheid nooit gezegd of gedaan hebben. Deze zogenoemde deepfakes kunnen op fantastische manieren worden ingezet, met name in de film- en entertainmentindustrie. Ook worden ze gebruikt in de geneeskunde, de psychiatrie, het onderwijs en bij online congressen.

Afpersing en intimidatie

Maar hoewel deepfakes enorme kansen bieden, kunnen ze in de handen van kwaadwillenden op bijzonder vervelende en onwenselijke manieren worden gebruikt. Bijvoorbeeld om vals bewijsmateriaal te produceren in rechtszaken, politici uitspraken te laten doen die ze helemaal niet gedaan hebben, identiteitsfraude te plegen, mensen af te persen of te intimideren.

Dat laatste overkwam de Indiase onderzoeksjournalist Rana Ayyub toen zij zich kritisch had uitgelaten over een verkrachtingszaak in haar land. Nadat er eerst op sociale media talloze neptweets onder haar naam verschenen om haar in diskrediet te brengen, werd ze geconfronteerd met een deepfake pornovideo waarin ze zelf de hoofdrol leek te spelen. Het bleek een effectief middel om haar monddood te maken. De vernedering en schande die dit veroorzaakte, zorgde ervoor dat Ayubb naar eigen zeggen tegenwoordig niet alles meer durft te schrijven

Onderzoek laat zien dat meer dan 90% van de deepfakes die momenteel online circuleren pornografisch zijn. Vaak wordt de technologie gebruikt om gezichten van personen in bestaande video’s te plakken, vrijwel altijd zonder toestemming. In bijna alle gevallen is het slachtoffer een vrouw. Natuurlijk zijn lang niet al deze video’s bedoeld om mensen die zich in het publieke debat roeren, onder druk te zetten. Het persoonlijke leed dat ze aanrichten is er niet minder om.

Bescherming burgers

De wetgeving die onze persoonlijke levenssfeer in de echte wereld moet beschermen, schiet duidelijk tekort voor het beschermen van onze virtuele identiteit in de online wereld. Zo blijkt het voor slachtoffers van deepfakes op dit moment heel moeilijk om daders te achterhalen, of platforms te verzoeken video’s offline te halen, zelfs wanneer die in strijd zijn met het portretrecht of de Algemene verordening gegevensbescherming (AVG).

Burgers moeten dan ook beter geholpen worden om hun recht te halen. Het is belangrijk dat er wetgeving komt die platforms verplicht een adequate klachtenprocedure in te richten en onrechtmatige content te verwijderen. Ook is gerichte wetgeving nodig om slachtoffers te beschermen. Net zoals ze dat bij de AVG deed, zou de Europese Unie hierin het voortouw kunnen nemen.

Betrouwbare bronnen

Daarmee zijn we er nog niet. Deze zomer verscheen er een video online waarin Viruswaarheidvoorman Willem Engel openlijk twijfelde aan de watersnoodramp in Limburg. Hij zette vraagtekens bij de overstromingen ‘in ongeveer het enige gebied in Nederland dat boven zeeniveau ligt’. Op Twitter was men het er al snel over eens: deze uitspraken waren zo absurd, dit moest wel een deepfake zijn.

Uiteindelijk bleek er geen sprake te zijn van een deepfake. De beelden waren authentiek. Onbedoeld gaven ze een voorproefje van wat ons te wachten staat. Het oprukken van deepfakes zal er de komende jaren voor zorgen dat we ook materiaal dat echt is, gaan wantrouwen. Zodoende kan de deepfaketechnologie de erosie van vertrouwen die in de samenleving aan de gang is, versterken en versnellen.

Beleidsmakers zullen dan ook meer moeten doen om de samenleving weerbaar te maken. Mediawijsheid moet er niet alleen voor zorgen dat mensen zich ervan bewust zijn dat niet alles wat ze zien altijd waar is. Het is essentieel dat iedereen de weg naar betrouwbare bronnen weet te vinden. In een wereld waarin gemanipuleerd beeld en geluid een steeds groter deel wordt van ons dagelijks leven, moeten we leren om alle informatie op waarde te schatten.

Dit artikel van onderzoekers Djurre Das en Mariëtte van Huijstee verscheen ook op socialevraagstukken.nl. Het is geschreven naar aanleiding van het rapport Tackling deepfakes in European policy dat vrijdag 15 oktober gepresenteerd wordt aan het panel voor de toekomst van wetenschap en technologie (STOA) van het Europees Parlement.

Wat zijn deepfakes?