calendar tag arrow download print
Doorgaan naar inhoud

AI-bedrijven gebruiken burgers als proefkonijnen

Artikel
11 mei 2023

De vraag die we ons eigenlijk moeten stellen, is waartoe deze AI ontwikkeld wordt en wie er belang bij heeft. (Foto: Brooke Kagle - Unsplash)

Image
Jongeren samen aan het werk met een laptop en tablet

We kunnen ons niet meer voorstellen dat burgers vroeger bij het ontwikkelen van medicijnen zomaar als proefkonijn werden gebruikt. Gek genoeg lijken we hier bij AI niet moeilijk over te doen. Dat moet anders, zeggen onderzoekers Wouter Nieuwenhuizen en Quirine van Eeden van het Rathenau Instituut.

De AI-chatbot in Snapchat moet verboden worden, daarvoor pleiten instanties en een aantal politieke partijen. Zoals Caroline Dettmeijer van Child Helpline International stelt, worden kinderen als proefkonijnen blootgesteld aan een ‘experimentele chatbot’. Niet alleen de veiligheid van kinderen, maar die van de gehele samenleving is in het geding. De komst van ChatGPT en andere AI-toepassingen die tekst en beeld kunnen genereren, maakt ons allemaal ongevraagd onderdeel van een grootschalig maatschappelijk experiment ten bate van een klein aantal bedrijven.

Een groot aantal ethici, ondernemers en medewerkers van techbedrijven heeft gewaarschuwd voor de komst van AI als ChatGPT, en de doorontwikkeling ervan. In een brief aan de Europese Commissie wijzen oud-Google-ethicus Timnit Gebru en ruim 50 andere wetenschappers op de risico's van AI-modellen. Oudere AI-modellen kunnen vaak slechts één taak uitvoeren binnen een bepaald gebied, terwijl deze nieuwe modellen een bredere reikwijdte hebben en in staat zijn om een groot scala aan opdrachten uit te voeren.

Wanneer we denken dat AI menselijke interacties kan vervangen of zelfs beter werk oplevert, dreigen we ook de meerwaarde van ons menszijn te verwaarlozen.

Aangezien deze nieuwe toepassingen nieuwe teksten en afbeeldingen van hoogwaardige kwaliteit kunnen genereren, kunnen hun producten volstrekt realistisch en overtuigend overkomen. Dat kan resulteren in grootschalige misleiding. Ook de vooringenomenheid in de trainingsdata, doordat bepaalde groepen of kenmerken in datasets oververtegenwoordigd zijn, kan leiden tot discriminatie op grote schaal.

Maar er staat nog meer op het spel. Hoogleraar computationele taalkunde Emily Bender waarschuwt voor dehumanisering doordat we AI te veel als mens en onszelf te veel als machine gaan zien. Wanneer we denken dat AI menselijke interacties kan vervangen of zelfs beter werk oplevert, schaadt dit niet alleen ons empathisch vermogen, maar dreigen we ook de meerwaarde van ons menszijn te verwaarlozen.

Waar er bij ingrijpend biomedisch onderzoek met mensen altijd wettelijke waarborgen zijn, mag de hele wereld proefkonijn spelen voor de systemen die een kleine groep ontwikkelaars in Silicon Valley heeft bedacht.

Eind 2022 lanceerde het bedrijf OpenAI ChatGPT. De urgentie was hoog. Topbestuurder Sam Schillace van Microsoft, dat een groot aandeel in OpenAI heeft, schreef in een interne e-mail dat ‘het een kolossale fout’ zou zijn om tijd te verliezen met zorgen over problemen die later nog te corrigeren zouden zijn. Een snelle lancering was nodig om zo snel mogelijk een stevige positie te vergaren op de AI-markt die zich in razend tempo ontwikkelt, zo bleek uit dezelfde e-mail.

Het uitbrengen van ChatGPT past binnen de ‘move fast and break things’-strategie, naar de slogan waarmee Mark Zuckerberg Facebook groot maakte. Ook nu lanceren bedrijven op vergelijkbare wijze zo snel mogelijk nieuwe diensten met burgers als proefkonijn. Het probleem is dat bedrijven als OpenAI, Microsoft en Meta dit ongecontroleerd kunnen doen. Waar er bij ingrijpend biomedisch onderzoek met mensen altijd wettelijke waarborgen zijn, zoals toezicht door ethische commissies en expliciete toestemming van deelnemers, mag de hele wereld proefkonijn spelen voor de systemen die een kleine groep ontwikkelaars in Silicon Valley heeft bedacht.

Natuurlijk kunnen we er als consumenten voor kiezen om ChatGPT en de recent uitgebrachte AI-systemen van Microsoft en Google (Bing Chat en Bard) niet te gebruiken. Maar wanneer anderen dat wel doen, krijg je er natuurlijk alsnog mee te maken. Bovendien verandert dat niets aan het overheersende narratief dat technologie ‘zich nou eenmaal blijft doorontwikkelen en we als samenleving alleen kunnen reageren’.

De vraag die we ons eigenlijk moeten stellen, is waartoe deze AI ontwikkeld wordt en wie er belang bij heeft.

De vraag die we ons eigenlijk moeten stellen, is waartoe deze AI ontwikkeld wordt en wie er belang bij heeft. Zodra het gaat over onderwijsveranderingen of over ingrepen in fysieke leefomgeving, willen we weten ‘waarom’, ‘waartoe’, ‘voor wie’. Nieuwe AI-modellen zouden we ook aan die vragen moeten onderwerpen. Al in 2014 waarschuwde het Rathenau Instituut ervoor dat nieuwe digitale technologieën steeds dieper ingrijpen op de meest cruciale elementen van ons mens-zijn. Die waarschuwing lijkt alleen maar aan relevantie te winnen.

Technologieën als pacemakers en hersenimplantaten zijn vanwege hun indringende aard aan strenge regels onderworpen. Of neem geneesmiddelen. Daarvan vinden we het volstrekt logisch dat de bewijslast voor veiligheid en effectiviteit bij de producent ligt. Het Europees recht schrijft het voorzorgsbeginsel voor: voorkomen is beter dan genezen. Wanneer het vermoeden bestaat dat een nieuwe technologie of stof ernstige schade aan de gezondheid of het milieu kan toebrengen, moeten voorzorgsmaatregelen worden genomen.

Voor AI die ingrijpt op ons denken, handelen, voelen en andere fundamentele aspecten van ons leven lijkt dat niet te gelden. Recent heeft de Tweede Kamer het kabinet gevraagd om een integrale visie op nieuwe AI-producten. Wat we tenminste nodig hebben, zijn democratisch vastgestelde eisen en een afdwingbare maatschappelijke verantwoordelijkheid van AI-bedrijven. Alleen dan kunnen we ons als samenleving uit dit ongevraagde en ongecontroleerde experiment bevrijden.


Dit artikel verscheen eerder als opinieartikel in het Nederlands Dagblad

Gerelateerde publicaties: