Maak haast met regels voor verantwoord AI-gebruik in wetenschap
Universiteiten moeten snel normen of regels vaststellen voor verantwoord gebruik van generatieve kunstmatige intelligentie, zoals ChatGPT en Copilot. Dat stelt Laurens Hessels van het Rathenau Instituut in een opiniestuk. Individuele wetenschappers worden nog te veel aan hun lot overgelaten. Belangrijke vragen zijn: wat betekenen integriteit, betrouwbaarheid en onafhankelijkheid wanneer je gebruikmaakt van generatieve kunstmatige intelligentie, en hoe kunnen we deze waarden bewaken?
Kunstmatige intelligentie (AI) maakt een snelle opmars in de wetenschap. Waar het gebruik van algoritmes tot voor kort beperkt was tot enkele specifieke vakgebieden, biedt de komst van generatieve-AI-tools zoals ChatGPT en Copilot aanlokkelijke mogelijkheden voor vrijwel alle disciplines. Generatieve AI (GAI) kan op verzoek van een gebruiker geautomatiseerd content maken, zoals teksten, afbeeldingen of programmeercode.
Met hulp van GAI schrijven onderzoekers sneller artikelen, kunnen ze meer data analyseren en ook gemakkelijker literatuur verzamelen die voor hun werk relevant is. Generatieve AI kan ook de communicatie met partijen buiten de wetenschap vergemakkelijken, bijvoorbeeld door toegankelijke teksten of animaties te produceren.
Zorgen over integriteit, privacy, duurzaamheid
Generatieve AI produceert echter ook vaak gekleurde en onjuiste analyses. Ruim 1.500 wetenschappers waarschuwen in een open brief voor de gevaren die GAI meebrengt voor wetenschappelijke integriteit, privacy, duurzaamheid en andere publieke waarden.
Wetenschappelijke tijdschriften worden momenteel overspoeld door nepartikelen, soms zelfs met vermelding van auteurs die daar zelf niets van weten. Bovendien versterkt de inzet van de meest gangbare GAI de afhankelijkheid van kennisinstellingen van enkele extreem machtige technologiebedrijven uit de Verenigde Staten. Ook zijn er grote zorgen over de hoeveelheid water en energie die datacenters consumeren, en over de uitbuiting van arbeiders in het mondiale zuiden die afschrikwekkende teksten en beelden moeten selecteren en karakteriseren in categorieën zoals seksueel misbruik en geweld.
Kunnen individuele wetenschappers afweging wel maken?
Momenteel ligt er een grote verantwoordelijkheid bij individuele wetenschappers om deze kansen en risico’s af te wegen, en te beoordelen hoe GAI verantwoord kan worden ingezet in de wetenschap. Universiteiten raden wetenschappers weliswaar af om tools als ChatGPT te gebruiken, maar geven hun medewerkers wel de ruimte om een eigen afweging te maken.
Het is zeer de vraag of individuele onderzoekers deze verantwoordelijkheid aankunnen. De werkdruk aan universiteiten is hoog, en de competitie is hard. Voor jonge wetenschappers kan die ene extra publicatie in een prestigieus tijdschrift of die extra subsidie van NWO het verschil maken tussen een vaste baan of een tijdelijk contract.
Hebben wetenschappers voldoende kennis over de technische beperkingen en de duurzaamheidsimpact van grote taalmodellen om een goede afweging over het gebruik ervan te maken? En kun je ervan op aan dat ze daarbij publieke en wetenschappelijke waarden altijd vooropstellen – ook wanneer GAI hen (ogenschijnlijk) veel werk uit handen kan nemen?
Enquêtes onder wetenschappers wereldwijd laten alvast zien dat veel wetenschappers zich bewust zijn van de fouten en afwijkingen die ontstaan door het gebruik van GAI, maar dat ze de beschikbare tools toch gebruiken om samenvattingen te maken of delen van publicaties te schrijven.
Efficiëntie tegen welke prijs?
Universiteiten moeten daarom snel normen of regels vaststellen voor verantwoord gebruik van GAI. Dit vraagt allereerst om een politieke afweging over conflicterende waarden zoals efficiëntie, autonomie, duurzaamheid en rechtvaardigheid. Daarover is de Tweede Kamer aan zet: hoe belangrijk is het om wetenschappelijk onderzoek te versnellen en verbreden, ook in het huidige geopolitieke speelveld waarin data en AI als machtsmiddel worden gebruikt? Waar ligt de morele ondergrens op het gebied van duurzaamheid en (mondiale) rechtvaardigheid, en tegen welke prijs willen we de efficiëntie van wetenschappelijk onderzoek verhogen?
Daarnaast is er een vertaalslag nodig van traditionele wetenschappelijke waarden naar een nieuwe realiteit. Wat betekenen integriteit, betrouwbaarheid en onafhankelijkheid wanneer je gebruikmaakt van GAI, en hoe kunnen we deze waarden bewaken? Voor welke toepassingen is het gebruik van GAI toelaatbaar, en aan welke voorwaarden moeten GAI-tools voldoen?
Het is niet gezegd dat de Nederlandse wetenschap hier één universeel antwoord op kan geven. Mogelijk moeten verschillende disciplines aan de slag om hun eigen regels te formuleren. Het is immers belangrijk om recht te doen aan de grote diversiteit aan wetenschapspraktijken en de uiteenlopende manieren waarop wetenschappers GAI gebruiken.
Niet wachten op TNO, universiteiten en Europa
Het opstellen en handhaven van nieuwe regels zal uiteraard niet eenvoudig zijn. Toch moeten we het doen. GAI stelt gangbare mechanismen van wetenschappelijke kwaliteitsborging op de proef, en daar moet een antwoord op gevonden worden. Het Rathenau Instituut onderzoekt op dit moment hoe GAI de aard van wetenschappelijke kennis verandert, welke eisen het gebruik van GAI stelt aan wetenschappelijke kwaliteitszorg, en welke competenties wetenschappers nodig hebben om GAI zinvol te gebruiken.
Een hoopvolle ontwikkeling is dat TNO en universiteiten eigen AI-tools ontwikkelen voor de wetenschap, die steeds betere prestaties leveren. Ook de EU wil hierin fors investeren. Dit biedt de mogelijkheid om alternatieve GAI-technologie te ontwikkelen die beter aansluit bij Europese waarden en bij de zorgvuldigheid die het fundament vormt van goede wetenschap.
We kunnen daar echter niet op wachten. Zo lang deze nieuwe Europese tools nog onvoldoende (ontwikkeld) zijn, blijven wetenschappers aangewezen op GAI waar veel problemen aan kleven. Het afspreken van grenzen voor toelaatbaar gebruik vraagt daarom nu onze aandacht.