calendar tag arrow download print
Doorgaan naar inhoud

AI en manipulatie op sociale en digitale media

Artikel
03 juni 2022
AI en manipulatie AI Ethiek

Foto: Greg Bulla - Unsplash

Image
De likeknop van Facebook staat prominent afgebeeld op het bord van Facebook

Hoe kan AI op sociale en digitale media ons gedrag beïnvloeden? In het derde deel van onze blogserie 'AI en manipulatie': een interview met beleidsadviseur Nadia Benaissa van Bits of Freedom en Richard Rogers, hoogleraar Nieuwe media en digitale cultuur aan de Universiteit van Amsterdam.

In het kort:

  • Manipulatie op sociale en digitale media begint met het promoten van bepaalde content en het analyseren van het gedrag van gebruikers.
  • Dankzij AI-technieken en grote hoeveelheden beschikbare gebruikersgegevens is manipulatie op sociale en digitale mediaplatforms in een stroomversnelling geraakt.
  • Gebrek aan transparantie en negatieve maatschappelijke en psychologische effecten zijn slechts enkele van de problemen die zich voordoen bij manipulatie op digitale en sociale media.

Hoe wordt AI gebruikt om ons te manipuleren op digitale en sociale media?

Volgens Nadia Benaissa, beleidsadviseur bij Bits of Freedom, is manipulatie gebaseerd op het verzamelen van enorme hoeveelheden gegevens. “De platforms willen gebruikers beter kennen dan ze zichzelf kennen - wat hen bang maakt, aan het lachen maakt, wat ze zoeken op Google of welke spelfouten ze maken. Deze informatie levert een psychologisch profiel op van potentiële kiezers. Daarmee kan een bedrijf hen gerichte informatie of misinformatie voorschotelen”, merkt Benaissa op, verwijzend naar de manipulatie tijdens de Amerikaanse verkiezingen van 2016. Advertenties, nieuwsartikelen, leuke quizzen of posts beïnvloeden mensen om een bepaalde mening te vormen.

Kunstmatige intelligentietechnieken, zoals machine learning en natural language processing, worden gebruikt om data te analyseren en te leren wat gebruikers leuk vinden - om vervolgens meer van die inhoud aan te bieden. Prof. Richard Rogers van de Universiteit van Amsterdam legt uit dat dit wordt aangeduid als 'content optimisation'. “We zouden dit kunnen beschouwen als een eerste vorm van manipulatie, hoewel we het optimalisatie noemen. De vraag is: wat wordt er geoptimaliseerd?", zegt Rogers. The Facebook Files onthulden dat Facebook voorrang geeft aan berichten die als boos zijn getagd. Het resultaat is een door woede gedreven feed, aangezien de algoritmen van het platform de voorkeur geven aan boze, zelfs haatdragende reacties, zolang die maar aandacht krijgen. Dergelijke achtergrondprocessen van platformalgoritmen kunnen worden gezien als een vorm van manipulatie.

“De vraag is: welke content wordt er met AI geoptimaliseerd?”

De tweede vorm van manipulatie komt van andere gebruikers. Andere gebruikers helpen bepaalde inhoud te verspreiden door middel van nep-likes, nep-volgers, of nep-views.

Het derde type manipulatie gebeurt via platforms - niet door de individuele gebruiker of het platform zelf, maar door andere partijen. Een voorbeeld hiervan is een politieke organisatie die de publieke opinie wil beïnvloeden.

Is manipulatie door AI gevaarlijker dan ‘traditionele’ vormen van manipulatie?

Rogers: "Traditioneel zien we manipulatie, zoals propaganda, eerder als iets dat wordt gedaan door de initiatiefnemer, niet de gebruiker. In de digitale ruimte kunnen zowel initiatiefnemers als gebruikers anderen op de een of andere manier proberen te manipuleren om een bepaald doel te bereiken, of het nu gaat om het vergaren van invloed of het creëren van inkomsten.”

Een tweede verschil is dat via analoge media iedereen dezelfde informatie te zien krijgt. Online wordt de circulatie van inhoud echter versneld en op maat gemaakt, waardoor individuele informatiebubbels ontstaan. Sommigen noemen dit ‘computational propaganda’ en ‘artificial amplification’, mogelijk gemaakt door AI-technieken. Persoonlijke bubbels of ‘echo chambers’ veroorzaken een maatschappelijke kloof tussen verschillende groepen mensen.

Persoonlijke bubbels of ‘echo chambers’ veroorzaken een maatschappelijke kloof tussen verschillende groepen mensen.

De uitvergroting van specifieke informatie kan ook gevolgen hebben voor het mentale welzijn van mensen. Instagram experimenteerde met het verwijderen van interactieve tools, zoals het tonen van likes of metrics op posts. “Instagram beweert dat ze niet willen dat mensen het gevoel krijgen dat het een competitie is. Onderzoek toont aan dat wanneer een post niet veel likes krijgt, gebruikers zich slecht voelen. We zagen de negatieve psychologische effecten vooral bij bepaalde delen van de bevolking, zoals tienermeisjes”, vertelt Rogers. Het experiment kreeg veel aandacht en het bedrijf genoot van de geweldige PR, totdat uit het onderzoek uiteindelijk bleek dat de betrokkenheid slechts licht daalde, wat Instagram ertoe bewoog de like-functie weer terug te brengen.

Er zijn hier een paar ethische kwesties in het spel, zoals de kwestie dat platforms haatdragende posts blijven benadrukken omdat ze het delen van informatie bevorderen, wat weer meer interactie veroorzaakt – het uiteindelijke doel van het platform", zegt Rogers.

Een ander probleem is een gebrek aan transparantie rond de toegenomen invloed op gebruikers. Hoewel Facebook beweert dat het promoten van haatdragende uitlatingen niet in haar eigen belang of dat van de adverteerders is, zien we keer op keer dat het toch voorkomt. En we komen er altijd pas achteraf achter. Zoals Benaissa opmerkt "is er een gebrek aan transparantie en verantwoordingsplicht. De bedrijven zijn zo transparant als ze zelf willen zijn." Platforms vermijden transparantie over hun beslissingen om bepaalde inhoud te verwijderen of juist te benadrukken.

Wordt AI ook gebruikt om manipulatie op platforms tegen te gaan?

Rogers legt uit dat de verspreiding van foutieve informatie op sociale media zeer actueel is; we zagen het tijdens verkiezingen en tijdens de COVID-19 pandemie. Platforms gebruiken AI om inhoud te signaleren en te verwijderen. Zij hebben safelists gemaakt van geloofwaardige bronnen voor ernstige onderwerpen zoals extremisme of pornografie. Het gebruik van AI om betrouwbaarheid te automatiseren werkt echter niet altijd en er zijn mensen nodig om de informatie te checken. “AI kan helpen om de betrouwbaarheid te bewaken, maar het kan ook samenzweringen versterken", zegt Rogers.

“AI kan helpen om de betrouwbaarheid te bewaken, maar het kan ook samenzweringen versterken.”

Een ander voorbeeld van manipulatie via sociale media is politieke microtargeting. In een poging transparant te zijn over het soort politieke reclame dat op hun platforms is toegestaan, deelden Google en Facebook weliswaar enige informatie, maar lieten na om iets te zeggen over de context waarin gebruikers deze reclame bekijken. “We weten vaak niet welke AI-technieken of gegevens ze gebruiken. Google en Facebook bestempelen politieke advertenties als zodanig, maar verbergen op welke basis de advertenties aan specifieke gebruikers worden getoond", aldus Benaissa. De fysieke krant bood voor iedereen een duidelijke context, maar online wordt het voor gebruikers moeilijk om een onderscheid te maken tussen organische en gerichte inhoud. "Deze ondoorzichtigheid kan leiden tot digitale manipulatie", benadrukt Benaissa. De langverwachte Digital Services Act van de Europese Commissie zal politieke microtargeting echter reguleren.

Wat vindt u van het publieke debat over manipulatie door AI in digitale en sociale media?

Benaissa: "Mensen zijn zich meer bewust geworden van de gevaren van online manipulatie, en we zijn minder naïef geworden, hoop ik. Maar ik ben ook bang dat politieke reclame genormaliseerd wordt, en dat veel politieke partijen eraan meedoen. Vaak vrezen politieke partijen dat politieke micro-targeting essentieel is geworden voor hun werk. Dit is problematisch omdat zij geacht worden een oplossing te bieden door middel van wetgeving, in plaats van bij te dragen aan het probleem door volgens de regels van platforms mee te doen aan hun spel", legt ze uit.

Digitale mediaplatforms staan momenteel onder druk als gevolg van publieke en politieke tegenreacties, bijvoorbeeld over het verspreiden van verkeerde informatie over vaccinaties, extremistische inhoud of illegaal gebruik van data. De reacties verschillen per platform. Sommige hebben transparantieverslagen opgesteld waaruit blijkt dat zij een actieve rol spelen bij de bestrijding van extremisme en desinformatie. De druk van het publiek heeft geleid tot een toename aan regelgeving, voornamelijk in de Europese Unie. Dit is interessant omdat we wereldwijd niet dezelfde beperkingen zien, terwijl de platforms wereldwijd aanwezig zijn. Het recht om te worden vergeten geldt bijvoorbeeld alleen in de Europese Unie", merkt Rogers op.

Gerichte reclames, gepersonaliseerde nieuwsoverzichten of slimme apparaten in huis: artificiële intelligentie (AI) creëert mogelijkheden om menselijk gedrag te beïnvloeden. De Europese Commissie heeft een volledig verbod op bepaalde (schadelijke) vormen van manipulatieve AI voorgesteld. In een blogserie gaat het Rathenau Instituut met experts in gesprek over manipulatieve AI en de wenselijkheid van deze opkomende technologie.

De vlag van de Europese Unie

This project has received funding from the European Union’s Horizon 2020 research and innovation programme under the Marie Skłodowska-Curie grant agreement No 813497

Andere artikelen uit de blogreeks: