calendar tag arrow download print
Doorgaan naar inhoud

Rathenau Instituut onderzoekt effecten van AI op wetenschap

Artikel
28 januari 2025
AI digitalisering

De introductie van AI in de wetenschap brengt dus veel vragen met zich mee en verdient meer aandacht. (Foto: Matheus Bertelli via Pexels)

Image
Man met laptop met daarop ChatGPT

Het Rathenau Instituut gaat de komende twee jaar de effecten onderzoeken van AI op de wetenschap. We kijken hoe AI de aard van wetenschappelijke kennis verandert, welke eisen het gebruik van AI stelt aan wetenschappelijke kwaliteitszorg en welke competenties wetenschappers nodig hebben om AI zinvol te gebruiken.

In het kort:

  • Steeds meer wetenschappers gebruiken generatieve AI zoals ChatGPT.
  • Het Rathenau Instituut onderzoekt hoe AI de wetenschap verandert.
  • Wat zijn kansen? Wat risico's? Hoe zit het met de kwaliteitszorg?

Het wetenschappelijke tijdschrift Physica Scripta publiceerde in 2023 een paper met de vreemde frase 'Regenerate response'. Wat bleek? De auteurs hadden bij het kopiëren van ChatGPT per ongeluk de tekst van een knop meegenomen. Het artikel was door de peer review geslipt. Uiteindelijk gaven de auteurs toe dat ze AI hadden gebruikt zonder dit te melden. Het tijdschrift heeft het artikel daarom teruggetrokken.

Dit is maar een van de vele voorbeelden van wetenschappelijke artikelen waaruit te herleiden is dat (generatieve) AI gebruikt is zonder dat de auteurs dit hebben toegelicht in een statement. Het voorval toont dat wetenschappers momenteel dusdanig experimenteren met de inzet van AI-modellen, dat ze daarmee gangbare mechanismen van kwaliteitsborging op de proef stellen.

Werkprogramma

De mogelijkheden voor onderzoekers om met AI te werken ontwikkelen zich razendsnel, terwijl er nog relatief weinig discussies worden gevoerd over de kansen en risico’s, en de noodzaak van regulering. Mede daarom gaat het Rathenau Instituut in het Werkprogramma 2025-2026 de invloed van AI op de wetenschap onderzoeken.

De snelle ontwikkelingen van AI brengen veel mogelijkheden mee voor het doen van (wetenschappelijk) onderzoek. Waar AI tot voor kort vooral nog kansen bood voor onderzoekers die grote datasets gebruiken, kan generatieve AI toepasbaar zijn binnen ieder vakgebied. Taken die onderzoekers eerst met de hand moesten uitvoeren, kunnen nu met gebruiksvriendelijke tools zoals ChatGPT worden geautomatiseerd. We verwachten dan ook dat vrijwel iedere wetenschapper in de nabije toekomst met AI in aanraking komt.

Voordelen: schrijfhulp, samenvatten en analyseren

In het wetenschappelijk onderzoek kan AI veel voordelen opleveren. Wetenschappers besteden een groot deel van hun tijd aan het schrijven van teksten zoals artikelen, boeken en onderzoeksvoorstellen. Generatieve AI kan dit proces aanzienlijk versnellen. Zo kunnen wetenschappers beursaanvragen of interne notities laten schrijven door generatieve AI, wat veel tijdswinst oplevert. Het gebruik van AI voor het schrijven van artikelen is omstreden. Maar AI kan een manuscript wel controleren op spel- en taalfouten waardoor dit sneller klaar is voor publicatie. Ook kunnen onderzoekers tijd winnen bij het schrijven van samenvattingen van de literatuur. Het automatiseren hiervan geeft wetenschappers meer tijd om zich bezig te houden met nieuw onderzoek. Verder kunnen kwalitatieve onderzoekers AI inzetten, bijvoorbeeld als hulp bij het analyseren van interviewdata.

Ook bij programmeren kan (generatieve) AI helpen. Zo liet een studie zien dat academische studenten die hadden leren programmeren met generatieve AI beter begrepen hoe je problemen in voor computers behapbare stukken kan hakken dan studenten die geen toegang tot AI hadden. De studenten die geen gebruik mochten maken van AI waren langer bezig met het schrijven van computercode en het oplossen van foutmeldingen om deze code daadwerkelijk te laten werken, en hadden dus minder tijd gehad om de andere vaardigheden te ontwikkelen.

Nadelen: vooroordelen, energiegebruik en niet transparant

De ontwikkelingen gaan razendsnel en lijken vooralsnog niet of nauwelijks te worden geremd door gedragscodes of beleid. Dit terwijl er ook een duidelijke keerzijde zit aan de inzet van AI in de wetenschap. AI kan ten eerste nadelige gevolgen hebben vanwege de bias die vaak in de algoritmes is ingebakken. De modellen worden getraind op niet-representatieve data, wat ongelijkheden kan versterken. Een systematische literatuurreview kan daardoor per ongeluk een politieke voorkeur bevatten.

Een schrijnend geval van deze vooringenomenheid kwam naar voren toen onderzoekers afbeeldingen lieten genereren van verschillende beroepen. De afbeeldingen van lager betaalde, minder gewaardeerde beroepen bevatten disproportioneel vaker vrouwen of personen van kleur. De foto’s van functies zoals CEO's, rechters of politici werden juist vaker ingevuld door witte mannen. De vooroordelen die al in onze samenleving vastgeroest zitten, worden door dit soort modellen versterkt.

Daarnaast zien mensen vaak over het hoofd hoeveel water en energie (generatieve) AI-modellen verbruiken. Als je door ChatGPT één e-mail laat schrijven kost dat bijvoorbeeld een halve liter water. En Microsoft investeert 1,6 miljard dollar om een oude kerncentrale nieuw leven in te blazen zodat ze hun AI daarmee van stroom kunnen voorzien. We kunnen ons dan ook voorstellen dat wetenschappelijke organisaties de ecologische voetafdruk van AI onderdeel maken bij hun afweging voor het toestaan van AI-modellen. Dat ligt in lijn met de bestaande richtlijnen over het gebruik van de trein in plaats van het vliegtuig naar conferenties.

Tenslotte stelt het gebruik van AI fundamentele wetenschappelijk waarden zoals transparantie, repliceerbaarheid en betrouwbaarheid op de proef. De AI-modellen zijn vaak nog een zogenoemde black box, omdat het niet duidelijk is hoe ze precies tot hun antwoorden komen. De output is daarnaast niet blind te vertrouwen. Samenvattingen door AI zijn soms onvolledig en bevatten vaak fouten. Antwoorden van chatbots bevatten soms zelfs hallucinaties: teksten die op geen enkele bron gebaseerd zijn en daarmee dus als speculaties moeten worden opgevat.

Het gebruik van generatieve AI roept ook vragen op over wetenschappelijke integriteit. Onderzoekers hebben behoefte aan richtlijnen over de juiste wijze om antwoorden van een model als ChatGPT te kopiëren of parafraseren in een artikel.

Hoe verandert AI de aard van de wetenschap?

De introductie van AI in de wetenschap brengt dus veel vragen met zich mee en verdient meer aandacht. Er zijn nog maar weinig spelregels of richtlijnen die wetenschappers vertellen hoe ze (generatieve) AI verantwoord kunnen toepassen. Het Rathenau Instituut zal daarom de komende twee jaar de effecten van AI op de wetenschap verder onderzoeken. We kijken onder andere hoe de opkomst van AI de aard van wetenschappelijke kennis verandert, welke eisen het gebruik van AI stelt aan wetenschappelijke kwaliteitszorg en welke competenties wetenschappers nodig zullen hebben om AI zinvol te gebruiken.

Gerelateerde publicaties: