AI in de wetenschap 2: Kansen en risico’s in het alledaagse gebruik

Werking van het wetenschapssysteem

Artikel

In de tweede aflevering van de blogreeks ‘AI in de wetenschap’ gaan we in op de voor- en nadelen die het gebruik van generatieve AI heeft voor wetenschappers in hun dagelijks werk.

blog 2
Illustratie: Jessamijn.nl

In het kort:

  • Steeds meer wetenschappers gebruiken generatieve AI, zoals ChatGPT.
  • Dit levert kansen op, bijvoorbeeld om bepaalde delen van het werk sneller te doen.
  • Tegelijkertijd zijn er risico’s, bijvoorbeeld rond de betrouwbaarheid van de resultaten.

Voordelen: schrijfhulp, samenvatten en analyseren

In het wetenschappelijk onderzoek kan AI veel voordelen opleveren. Wetenschappers besteden een groot deel van hun tijd aan het schrijven van artikelen, boeken en onderzoeksvoorstellen. Generatieve AI kan dit proces aanzienlijk versnellen. Zo kunnen wetenschappers beursaanvragen of interne notities laten schrijven door generatieve AI, wat veel tijdswinst oplevert.

Het gebruik van AI voor het schrijven van artikelen is omstreden. Maar AI kan een manuscript wel controleren op spel- en taalfouten, waardoor dit sneller klaar is voor publicatie. Ook kunnen onderzoekers tijd winnen bij het schrijven van samenvattingen van de literatuur. Het automatiseren hiervan geeft wetenschappers meer tijd om zich bezig te houden met nieuw onderzoek. Verder kunnen wetenschappers die kwalitatief onderzoek doen AI inzetten bij bijvoorbeeld het analyseren van interviewdata.

Ook bij programmeren kan (generatieve) AI helpen. Zo liet een studie zien dat academische studenten die hadden leren programmeren met generatieve AI beter begrepen hoe je problemen in voor computers behapbare stukken kan hakken dan studenten die geen toegang tot AI hadden. De studenten die geen gebruik mochten maken van AI waren langer bezig met het schrijven van computercode en het oplossen van foutmeldingen om deze code daadwerkelijk te laten werken, en hadden dus minder tijd om andere vaardigheden te ontwikkelen.

Nadelen: vooroordelen, energiegebruik en niet transparant

De ontwikkelingen gaan razendsnel en lijken vooralsnog niet of nauwelijks te worden geremd door gedragscodes of beleid. Dit terwijl er ook een duidelijke keerzijde zit aan de inzet van AI in de wetenschap. Allereerst stelt het gebruik van AI fundamentele wetenschappelijk waarden zoals transparantie, repliceerbaarheid en betrouwbaarheid op de proef. De AI-modellen zijn vaak nog een zogenoemde black box, omdat het niet duidelijk is hoe ze precies tot hun antwoorden komen. De output is daarnaast niet blind te vertrouwen. Samenvattingen door AI zijn soms onvolledig en bevatten vaak fouten. Antwoorden van chatbots bevatten soms zelfs hallucinaties: teksten die op geen enkele bron gebaseerd zijn en daarmee dus als speculaties moeten worden opgevat.

Het gebruik van generatieve AI roept ook vragen op over wetenschappelijke integriteit. Onderzoekers hebben behoefte aan richtlijnen over de juiste wijze om antwoorden van een model als ChatGPT te kopiëren of parafraseren in een artikel.

AI kan bovendien nadelige gevolgen hebben vanwege de bias die vaak in de algoritmes is ingebakken. De modellen worden getraind op niet-representatieve data, wat ongelijkheden kan versterken. Een systematische literatuurreview kan daardoor per ongeluk een politieke voorkeur bevatten.

Een schrijnend geval van deze vooringenomenheid kwam naar voren toen onderzoekers afbeeldingen lieten genereren van verschillende beroepen. De afbeeldingen van lager betaalde, minder gewaardeerde beroepen bevatten disproportioneel vaker vrouwen of personen van kleur. De foto’s van functies zoals CEO's, rechters of politici werden juist vaker ingevuld door witte mannen. De vooroordelen die al in onze samenleving vastgeroest zitten, worden door dit soort modellen versterkt.

Daarnaast zien mensen vaak over het hoofd hoeveel water en energie (generatieve) AI-modellen verbruiken. Als je door ChatGPT één e-mail laat schrijven kost dat bijvoorbeeld een halve liter water. En Microsoft investeert 1,6 miljard dollar om een oude kerncentrale nieuw leven in te blazen zodat ze hun AI daarmee van stroom kunnen voorzien. We kunnen ons dan ook voorstellen dat wetenschappelijke organisaties de ecologische voetafdruk van AI onderdeel maken bij hun afweging voor het toestaan van AI-modellen. Dat ligt in lijn met de bestaande richtlijnen over het gebruik van de trein in plaats van het vliegtuig naar conferenties.

Meer AI in de wetenschap: