calendar tag arrow download print
Doorgaan naar inhoud

Hoe bedrijven ons met digitale technieken beïnvloeden

artikel
16 juli 2018
nudging Mensenrechten consumentenkeuzes
Image

Bedrijven kunnen allerlei technieken inzetten om het denken en gedrag van werknemers of consumenten te beïnvloeden. Dit heet 'nudging'. In de digitale wereld zetten ze informatietechnologie in. Dat kan op een positieve manier, maar dat is niet vanzelfsprekend.

Door Tim Jacquemard en Rinie van Est - foto Alan Stanton via Flickr
Dit artikel is eerder verschenen in Tijdschrift CDV.

Natuur vergroot de productiviteit en het welzijn van medewerkers.[1] Slimme bedrijven rusten daarom hun kantoren uit met planten, laten bureaus op parkjes uitkijken en creëren buiten groene plekken. Deze nudges – een kleine verandering in de context die kan leiden tot gedragsverandering – betreffen een verandering van de materiële omgeving. Het fysieke karakter zorgt ervoor dat ze voor iedereen zichtbaar en hetzelfde zijn. De econoom Richard H. Thaler noemt dergelijke ingrepen nudges for good: [2] ze zijn transparant en misleiden dus niemand, zijn gemakkelijk te vermijden  en hebben een positief effect op het welzijn van mensen. Het gebruik van digitale beïnvloedingstechnieken door bedrijven voldoet te vaak niet aan deze voorwaarden. De technieken zijn vaak ondoorzichtig, moeilijk vermijdbaar en niet gericht op het welzijn van de gebruiker.

Lees meer in ons rapport Mensenrechten in het robottijdperk

Online beïnvloedingsdomeinen en -technieken

Het afgelopen decennium is het internet voor bedrijven geworden tot een walhalla voor het massaal volgen van het gedrag van mensen, het massaal analyseren van menselijk gedrag, en het massaal testen en toepassen van zogenoemde persuasieve technieken om het gedrag van mensen te beïnvloeden. [3] In de digitale wereld is het vaak makkelijk om kleine aanpassingen door te voeren. Op het internet zijn bedrijven in staat om het effect daarvan op gebruikers te meten, dat te analyseren en op basis daarvan de app of website wederom aan te passen. Met deze feedbacklussen – het continu herhalen van de voornoemde opeenvolging van meten, analyseren en beïnvloeden – kunnen bedrijven het succes van beïnvloeding meten en optimaliseren. Inmiddels is er een miljardenindustrie rondom beïnvloeding ontstaan. Veel bedrijven maken bijvoorbeeld gebruik van A/B-experimenten, waarbij men test welke van twee versies van een webpagina het effectiefst is. Een klein kleuraccent vergroot mogelijk een beetje de kans dat een consument het product daadwerkelijk koopt. Bij duizenden klanten kan een dergelijk klein verschil toch veel profijt opleveren. Bedrijven gebruiken verschillende digitale beïnvloedingstechnieken, zoals reductie, tunnelen, personaliseren, suggesties doen, zelfmonitoring, surveillance en conditioneren (zie kader).

Zeven digitale beïnvloedingstechnieken

Fogg [4] identificeert zeven manieren om via computers gebruikers te beïnvloeden. Bedrijven kunnen meerdere technieken op hetzelfde platform toepassen:

1. Reductie: het reduceren van een complexe activiteit tot simpele stappen.

2. Tunnelen: het leiden van gebruikers langs een vooraf bepaalde reeks van acties of gebeurtenissen.

3. Op maat maken: het aanpassen van informatie om het relevanter voor de gebruiker te maken.

4. Suggesties doen: op het juiste moment interveniëren of suggereren dat dit het juiste moment is.

5. Zelfmonitoring: het volgen van het eigen gedrag om zichzelf te meten en te verbeteren.

6. Surveillance: het meten en vergelijken van het gedrag van anderen om ze het te laten veranderen.

7. Conditioneren: het leveren van reeksen van prikkels en antwoorden om zo mensen gewenst gedrag aan te leren.

Bedrijven zetten technologieën in om het gedrag van hun werknemers en klanten (ongevraagd of gevraagd) te beïnvloeden. Uber, een platform waarop chauffeurs vervoersdiensten aanbieden, gebruikt bijvoorbeeld reviews om hun systeem voor klanten betrouwbaarder te maken. Op basis van deze reviews geeft het taxichauffeurs suggesties om hun service te verbeteren. Uber behoudt zich het recht voor om een profiel te deactiveren als de gemiddelde beoordelingsscore gemiddeld lager uitvalt dan 4.6 uit 5 sterren. [5] Via op maat gesneden berichten of reclames kunnen klanten ongevraagd beïnvloed worden. Gratis diensten verdienen hun geld veelal door hun platform open te stellen aan adverteerders of door data door te verkopen. Het Britse bedrijf Cambridge Analytica veroorzaakte een controverse door de profielen van 75 miljoen Facebookgebruikers in te zetten om het stemgedrag van Amerikaanse kiezers tijdens de presidentsverkiezingen in 2016 te beïnvloeden. [6] Het bedrijf maakte gebruik van psychometrie en microtargetting: via de data van Facebook kreeg Cambridge Analytica zicht op groepen gebruikers met bepaalde psychologische kenmerken, en op basis van die profielen probeerde men het stemgedrag van Facebookgebruikers gericht te beïnvloeden.

Mensen willen soms ook doelbewust persuasieve technologie inzetten om zich op een bepaald gebied elektronisch te laten coachen. Denk bijvoorbeeld aan de fiets- of hardloopapp Strava. Via sensoren in smartphones kunnen gebruikers hun eigen gedrag monitoren, op basis waarvan via algoritmen feedback gegeven kan worden zonder dat er een menselijke coach aan te pas hoeft te komen. [7] Sensoren bieden gedetailleerde informatie over lichaamsfuncties, emoties en gedrag. Via algoritmes stellen deze apps gepersonaliseerde trainingsprogramma’s op. Dergelijke elektronische coaches kunnen gebruikers helpen bij het behalen van persoonlijke doelen, zoals afvallen, zuiniger omgaan met geld of milieubewuster leven.

Misleiden de technieken niemand? Zijn ze te vermijden? En verbeteren ze ons leven? Dan zijn het 'nudges for good'

In de praktijk kunnen bij de inzet van persuasieve technologie diverse doelen een rol spelen. Zorgverzekeraar Menzis biedt leden spaarpunten en andere voordelen aan als ze apps, zoals Strava, aan hun digitale platform koppelen. Daarmee moedigt Menzis bij zijn klanten een gezondere levensstijl aan. De zorgverzekeraar hoopt daarmee op den duur financieel te profiteren van gezondere verzekerden. Het platform kan tevens bijdragen aan een sterkere klantenbinding.

Nudges for good?

In hoeverre gaat het bij de inzet door bedrijven van persuasieve technologie om nudges for good? Thaler formuleerde drie voorwaarden om daarvan te spreken, namelijk: ze zijn transparant en misleiden niemand, ze zijn gemakkelijk te vermijden, en ze hebben een positief effect op het welzijn van mensen. Hierna bespreken we kort de inzet van digitale beïnvloeding door bedrijven vanuit deze drie voorwaarden.

Ondoorzichtige beïnvloeding

Bedrijven informeren gebruikers vaak niet over het gebruik van beïnvloedings- technologieën. Zo probeerde Facebook via berichten de stemopkomst tijdens verkiezingen te verhogen zonder gebruikers daarover te informeren, laat staan toestemming te vragen. [8] Bedrijven zetten bovendien massaal A/B-testen in zonder consumenten hiervan op de hoogte te stellen.

Bedrijven zetten massaal A/B-testen in zonder consumenten hiervan op de hoogte stellen

Ook kan in het systeem een gebrek aan transparantie zijn ingebouwd. Facebook gebruikt nu verkiezingsberichten over de gehele wereld. [9] Het bedrijf stelt dat ze vanwege het samenspel tussen algoritmes en individuele gebruikersinstellingen onmogelijk kunnen vaststellen wie zo’n bericht ontvangt. Bovendien functioneren netwerken als Facebook en Google als megaplatforms waarop andere bedrijven hun diensten en producten aanbieden. Deze megaplatforms hebben niet altijd goed zicht op de doelen waarmee andere partijen hun platform inzetten. Zo was Facebook niet op de hoogte van de doelen waarvoor Cambridge Analytica het platform inzette. Daarnaast kan uit data steeds meer zinvolle informatie worden gedestilleerd. Wetenschappers hebben bijvoorbeeld algoritmes ontwikkeld die op basis van foto’s tot 91 procent nauwkeurig de seksuele geaardheid van de gefotografeerde kunnen vaststellen.[10] Psycholoog en datawetenschapper Michal Kosinski verwacht zelfs dat op den duur ook politieke voorkeur, neiging tot crimineel gedrag en iq via gezichtsherkenning zijn vast te stellen. [11]

Moeilijk te vermijden beïnvloeding

Digitale platforms integreren beïnvloedingstechnieken in producten die inmiddels integraal deel zijn gaan uitmaken van ons dagelijks leven en zodoende moeilijk te vermijden zijn. Soms verplichten bedrijven het gebruik van technologieën. Uber wijst werk alleen toe via de app: de taxichauffeur is voor zijn inkomen dus afhankelijk  van de app die zijn gedrag meet en stuurt.

De Uber-taxichauffeur is afhankelijk voor inkomen van de app die zijn gedrag meet en stuurt

Dit toont ook een andere complicatie: wanneer mensen gemeten worden, is het steeds moeilijker informatie te verbergen. In het Verenigd Koninkrijk en China analyseren enkele bedrijven de hersenactiviteit van werknemers. Met deze data brengen ze veranderingen van emoties in kaart die verband houden met productiviteit en veiligheid.[12] In China beschouwen ze het identificeren van sociale onrust daarbij als een bijkomend voordeel.

Naast het mislopen van inkomsten, zijn er ook immateriële kosten verbonden aan het mijden van technologie. Een steeds belangrijker deel van het sociale en professionele leven speelt zich digitaal af: mensen spreken af via WhatsApp; versturen en ontvangen uitnodigingen via Facebook; en netwerken via LinkedIn. Dat komt onder andere  door netwerkeffecten, waardoor een dienst waardevoller wordt naarmate meer mensen gebruikmaken van een bepaald platform. Bovendien proberen ontwikkelaars, en sommige met groot succes, om de aandacht van gebruikers zo lang mogelijk aan zich te binden. Daarvoor gebruiken ze technieken die gelijkenissen vertonen met technieken uit een andere miljardenindustrie, namelijk de gokwereld. Volgens Schüll, oorspronkelijk onderzoekster naar online gokspellen, maken zowel de gokindustrie als sociale media gebruik (of misbruik) van het psychologische mechanisme dat de continue opeenvolging van actie en onzekere beloning kan leiden tot compulsief gebruik.[13] Deze herhaling van prikkels en acties kan er zelfs voor zorgen dat mensen volledig in de technologie opgaan. In deze toestand, ook wel flow genoemd, vervagen de dagelijkse zorgen, het lichamelijk bewustzijn en het zelfbewustzijn. De inzet van dergelijke krachtige nudges zet de autonomie van de gebruiker enorm onder druk.

Welzijn gebruiker staat niet centraal

Uit de voorgaande voorbeelden blijkt dat de ingrepen van bedrijven zeker niet altijd het welzijn van de gebruiker dienen. Maar zelfs ingrepen die bedoeld zijn om het welzijn van mensen te vergroten, kunnen onwenselijk zijn. Facebooks verkiezingsberichtje om de stemopkomst te vergroten heeft daadwerkelijk een klein, maar significant effect op de opkomst.[14] Hoewel het stimuleren van burgers om actief deel te nemen aan het democratisch proces in principe een goede zaak is, was Facebooks ingreep toch niet wenselijk. Het is namelijk een vorm van paternalisme: Facebook bepaalt in dit geval wat goed is voor de gebruiker. Nog steeds plaatst Facebook dit soort berichten zonder gebruikers of overheden hierover van tevoren in te lichten. De uitleg stond  op een weinig gelezen plek op het platform en er werd niet vermeld dat gebruikers ook proefpersonen waren.[15] Daarbij was het, zoals eerder vermeld, ondoorzichtig  wie deze berichten krijgt. Een ander problematisch punt is dat Facebook op deze manier veel invloed kan uitoefenen in verkiezingen met kleine marges en dus macht heeft. Daarmee kan het verkiezingen manipuleren door bijvoorbeeld op issues en partijen te sturen.

'Fitness trackers' voor een gezondere levensstijl geven vaak ongegronde adviezen

Steeds meer macht verschuift zo naar bedrijven, die daarmee kunnen bepalen wat wel of niet in het belang van de burger is. Burgers kunnen deze bedrijven niet op dezelfde wijze als democratisch gekozen overheden controleren en ter verantwoording roepen. Zelfs elektronische coaches waarvoor mensen zelf uit vrije wil kiezen, kunnen het welzijn van de gebruiker schaden. Zo zijn fitnesstrackers die helpen met het onderhouden van een gezondere levensstijl vaak onbetrouwbaar, waardoor ze ongegronde informatie of adviezen geven. Daarnaast kunnen ze leiden tot een ongezonde fixatie op het lichaam of tot belangenconflicten tussen zorgverleners en patiënten. Ook initiatieven met goede bedoelingen kunnen zo ongewenst blijken.

Bescherming van burgers en consumenten schiet tekort

De digitale wereld biedt bedrijven een gigantisch arsenaal aan persoonlijke informatie en beïnvloedingstechnieken die ze voor diverse doelen kunnen inzetten. Deze korte exercitie laat zien dat de manier waarop bedrijven persuasieve technologie inzetten veelal niet overeenkomt met de voorwaarden die volgens Thaler gelden voor nudges for good.

Bedrijven lijken eerder aan manipulatie, misinformatie en verslaving te doen dan aan 'nudges for good'

Juist het tegenovergestelde lijkt de regel: beïnvloeding vindt vaak ondoorzichtig plaats, is moeilijk te vermijden voor werknemers en consumenten, en het welzijn van de gebruiker staat niet vanzelfsprekend centraal. Er bestaat vaak onduidelijkheid over wiens belangen bedrijven dienen en hoe, en welke ideologieën en ideeën over welzijn ze promoten. Er kan zelfs sprake zijn van manipulatie, misinformatie en verslaving. De menselijke autonomie staat zodoende bij de inzet van persuasieve technologie op het spel.

De Algemene verordening gegevensbescherming (avg) vereist rechtmatigheid, transparantie en rechtvaardigheid met betrekking tot de verwerking van persoonlijke data. Daarmee lost ze echter niet alle problemen rond beïnvloeding op. 

Ten eerste baseren bedrijven beïnvloeding niet altijd op persoonsgegevens, waarmee een dergelijke beïnvloeding buiten het bereik van de avg valt. Daarnaast mogen bedrijven, ondanks de strengere voorwaarden, nog steeds persoonlijke profielen opstellen. En ten derde blijven sociale netwerken of arbeidstechnologie, waarvan beïnvloedingstechnologieën integraal onderdeel zijn, onderdeel van ons dagelijks leven en dus lastig te vermijden. Meer fundamenteel zegt deze nieuwe Europese wetgeving niets over de wijze waarop organisaties gebruikers op basis van de verzamelde en geanalyseerde big data mogen beïnvloeden. De avg heeft alleen betrekking op de verwerking van persoonsgegevens en niet op de rechtvaardigheid en eerlijkheid van de beïnvloedingstechnieken die op basis van deze gegevens ingezet worden.[16] De avg maakt dus niet helder wat eerlijke manieren van het beïnvloeden van gedrag zijn, en eist dus ook niet van bedrijven en overheden dat ze alleen maar gebruikmaken van nudges for good. De Europese toezichthouder voor gegevensbescherming edps geeft aan dat om de rechten van burgers in de digitale wereld te beschermen ook andere wetgevende kaders in stelling gebracht dienen te worden, zoals kieswetgeving, de mediawet en consumentenwetgeving.[17]

Het denken over hoe de autonomie van de mens in een steeds verder digitaliserende wereld kan worden gewaarborgd is dus nog zeker niet afgerond.

Twee nieuwe mensenrechten

Om het debat daarover te stimuleren heeft het Rathenau Instituut het Parlement van de Raad van Europa geadviseerd om het nut en de noodzaak van twee nieuwe mensenrechten verder te bespreken (Van Est & Gerritsen, 2017, zie ook de pagina Mensenrechten in het robottijdperk).

  1. Het eerste is het recht om niet gemeten, geanalyseerd of gecoacht te worden. Dit recht biedt de mens tegenwicht aan bedrijven die continu monitoren en sturen. De insteek is dat meten, analyseren en beïnvloeden van de mens op een menswaardige manier dient te gebeuren. De criteria die Thaler noemt voor nudges for good kunnen daarvoor als vertrekpunt dienen.
  2. Het tweede recht is het recht op betekenisvol menselijk contact. Het eerder beschreven continue proces van meten, analyseren en beïnvloeden maakt menselijk ingrijpen voor het bedrijfsproces steeds minder noodzakelijk. Uber hoeft bijvoorbeeld de chauffeur niet te spreken om hem ritjes aan te bieden of instructies te geven. Een recht op betekenisvol menselijk contact betekent in deze casus onder meer dat de chauffeur het gesprek met Uber moet kunnen aangaan en dat het beoordelingssysteem de chauffeur niet op een mensonwaardige manier klemzet. Vanuit dit oogpunt betitelen we de praktijk van Uber om chauffeurs van zijn platform af te halen als hun score te laag is als onmenselijk.

Dit artikel is eerder verschenen in Tijdschrift CDV.

Bij voorkeur citeren als:
Jacquemard, T. & R. van Est (2018) Zeldzame goede zetjes: Het gebruik van digitale beïnvloedingstechnieken door bedrijven. Christen Democratische Verkenningen  2: 55-60.

Meer lezen

Bond, R.M., Fariss, C.J., Jones, J.J., Kramer, A.D.I, Marlow, C., Settle, J.E. & Fowler, J.H. (2012) A 61-million-person experiment in social influence and political mobilization. Nature (489), pp. 295–298.

Cadwalladr, C. & E. Graham-Harrison (2017) How Cambridge Analytica turned Facebook ‘likes’ into a lucrative political tool.The Guardian, 17 maart.

Chen, S. (2018), ‘Forget the Facebook leak’: China is mining data directly from workers’ brains on an industrial scale. South China Morning Post, 29 april.

Couwenbergh, P. & Woudt, J. (2018). Winst Booking.com maakt menig AEX-fonds jaloers. FD, 28 januari.

Dzieza, J. (2015), The rating game. The Verge, 28 oktober 2015. Online beschikbaar: https://www.theverge.com/2015/10/28/9625968/rating-system-on-demand-economy-uber-olive-garden

Facebook. 2010. Facebook Focused on Helping Voter Participation. Facebook, 2 november. Beschikbaar online: https://www.facebook.com/notes/government-and-politics-on-facebook/facebook-focused-on-helping-voter-participation/448310010881/

Fogg, B.J. (2003), Persuasive Technology: Using Computers to Change What We Think and Do. San Francisco: Morgan Kaufmann Publishers Inc.

Grassegger, J. (2018), Facebook says its ‘voter button’ is good for turnout. But should the tech giant be nudging us at all?, The Guardian, 15 april.

Hiemstra, J.A., de Vries, S. en Spijker, J.H. (2017) Greenery and Work. Wageningen : Wageningen University & Research

Harris, T. (2016). How Technology Hijacks People’s Minds — from a Magician and Google’s Design Ethicist. Online beschikbaar: http://www.tristanharris.com/essays/

Jones, J.J., Bond, R.M., Bakshy, E., Eckles, D., Fowler, & J.H. (2017) Social influence and political mobilization: Further evidence from a randomized experiment in the 2012 U.S. presidential election. PLoS ONE, 12(4)

Kool, L., J. Timmer & R. van Est (red.) (2014) Eerlijk advies: De opkomst van de e-coach. Den Haag: Rathenau Instituut.

Kool, L., Timmer, J., Royakkers, L. & Van Est, R. (2017) Opwaarderen - Borgen van publieke waarden in de digitale samenleving. Den Haag, Rathenau Instituut.

Kosinski, M. & Wang, Y. (2018). Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology. 114(2), pp. 246-257.

Levin, S. (2017) Face-reading AI will be able to detect your politics and IQ, professor says. In The Guardian, 12 september.

Schüll, N.D. (2016) Interviewed in Tegenlicht-documentary ‘What makes you click?, Hilversum: VPRO, 25 september.

Thaler, R.H. (2015) The Power of Nudges for Good and Bad. New York Times, 31 oktober.

Van Est, R. & Gerritsen J.B.A., met medewerking van Kool, L. (2017) Human rights in the robot age: Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality – Expert report written for the Committee on Culture, Science, Education and Media of the Parliamentary Assembly of the Council of Europe (PACE), Den Haag: Rathenau Instituut

Wilson, E. (2018), Workforce Fatigue Risk Management Using Wearable Technology. Cross Rail Learning Legacy, 13 maart.