calendar tag arrow download print
Doorgaan naar inhoud

Naar goed beheer van datatechnologie in de zorg

Artikel
30 april 2020

Illustratie: Max Kisman

Image
Goed databeeer

In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. In dit tiende deel laat Antoinette de Bont, hoogleraar Sociologie van Innovaties in Zorg aan de Erasmus University Rotterdam, zien dat sociale wetenschappers kunnen bijdragen aan goed beheer van datatechnologie in de zorg. ‘Waarom beginnen we niet met een moreel databeraad?’

In het kort

  • Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
  • Antoinette de Bont betoogt dat goed beheer van datatechnologie nodig is.
  • Ze laat zien hoe inzichten van sociale wetenschappers daaraan kunnen bijdragen.

Bij de inzet van technologie moet onze gezondheid centraal staan. Op zoek naar goede voorbeelden van verantwoorde inzet van kunstmatige intelligentie in de zorg, vroeg het Rathenau Instituut belangrijke spelers op het gebied van gezondheid en welzijn in Nederland naar hun ervaringen. In deze blogserie delen we deze inzichten via onze website. Hoe maken we nu en in de toekomst gezonde keuzes? Hoe zorgen we dat we zelf kunnen beslissen waar dat kan? En begrijpen we op welke manier anderen verantwoordelijkheid nemen voor onze gezondheid waar dat moet?

Succesvolle en legitieme inzet van AI

Kunstmatige intelligentie kan patronen in omvangrijke data ontdekken. Daarmee kan AI beter en sneller dan mensen voorspellingen doen. Neem een AI-toepassing die een foto van een tumor analyseert. Idealiter hoeft een arts met zo’n foto geen biopt van de tumor meer te nemen. Zo kan de inzet van AI leiden tot minder invasieve diagnostiek van kanker.

Het risico is echter dat AI alleen maar leidt tot extra zorg. Ontwikkelaars van AI-toepassingen moeten begrijpen waarom een chirurg misschien toch wil snijden, ook al heeft hij een foto van de tumor. Een chirurg wil voelen en ruiken, bijvoorbeeld. Als AI enkel naast de bestaande praktijk wordt ingezet, in plaats van erin te worden opgenomen, is de toegevoegde waarde van de technologie klein. 

De vraag is dus wat er voor nodig is om AI succesvol en legitiem in te zetten, zodat de technologie echt ondersteunend wordt aan de gezondheidszorg.  

Sociale wetenschappers

Het is nodig dat sociale wetenschappers vertegenwoordigd zijn onder technici en medici. Zij kunnen bijvoorbeeld verhelderen wat een begrip als ‘legitieme inzet van AI’ betekent. Legitimiteit van het gebruik van technologie gaat bijvoorbeeld over de vraag of het gebruik in overeenstemming is met de regels (compliance). Maar het kan ook gaan om sociale legitimiteit: weten degenen die met de technologie werken wat ze gebruiken en waarom? We spreken daarnaast van morele legitimiteit: zetten we AI in voor het goede doel?

Er is veel aandacht voor de naleving van de regels, maar minder voor de sociale en morele legitimatie van AI voor de zorg. Zonder sociale wetenschappers zouden vragen over legitimiteit te weinig aan bod komen bij de ontwikkeling en inzet van AI in de zorg.

Daarnaast kunnen sociale wetenschappers bijdragen aan een beter begrip van regels en cultuurverschillen bij de interpretatie van de regels. Wie AI wil ontwikkelen en inzetten in de zorg, heeft te maken met onder meer de General Data Protection Regulation (GDPR) vanuit de EU, met nationale regels, en met de regels van het zorgsysteem in een bepaald land. Start-ups moeten in dit complexe geheel hun weg vinden.

 In ons onderzoeksproject BigMedilytics (Big Data for Medical Analytics) hebben wij infographics gemaakt die de complexe regels inzichtelijker maken. Zo wordt ook duidelijk dat de interpretatie van de GDPR per land sterk kan verschillen. Dat is een belangrijk inzicht, want wie met AI werkt is juist snel geneigd om grensoverschrijdend te denken. Hoe meer data, des te beter. Maar om een AI-toepassing echt te kunnen gebruiken, moet je rekening houden met de lokale cultuur en interpretatie. Wat is de betekenis van privacy in een land?

Veel actoren en factoren

Het duurt lang voor een AI-toepassing kan worden gebruikt. Het algoritme moet in een instrument worden ingebouwd en de innovatie moet getoetst worden. Veel verschillende partijen moeten het gedurende lange tijd met elkaar uithouden én er moet geld zijn om hen betrokken te houden. Er is een business case nodig.

In ons project BigMedilytics willen we modellen opstellen van de verhoudingen tussen al deze actoren en factoren. Stel dat artsen geen vertrouwen hebben in de technologie. Wat heeft dat voor consequenties voor andere actoren? Met zo’n model kunnen we analyseren wat er precies gebeurt en wat er nodig is om de technologie in de praktijk te brengen.

Er zijn veel vragen voor verder onderzoek. Zoals bijvoorbeeld: wat is 'commercieel'?

Vragen voor verder onderzoek

Onderzoek en debat zijn nodig over de vraag wat maatschappelijk verantwoorde inzet van data is. Als een commercieel bedrijf een AI-toepassing ontwikkelt, zouden de patiënten die hun data hiervoor beschikbaar stellen dan korting moeten krijgen op het gebruik van die AI-toepassing? Hebben zij al betaald met hun data? Is zo’n prijsmechanisme maatschappelijk verantwoord?

Een andere vraag: wat is ‘commercieel’? Veel patiënten willen geen data geven voor commercieel gebruik. Daarom is een definitie van ‘commercieel’ nodig. Een AI-toepassing om de premie voor een levensverzekering te bepalen valt misschien duidelijk onder ‘commercieel’. Maar het ontwikkelen van nieuwe geneesmiddelen of nieuwe preventie-instrumenten: is dat ook commercieel?

Nog een vraag: waarom geven sommige mensen hun data wel en anderen niet? Spanje kent net als Zweden het concept van ‘data doneren’; data doneren als een maatschappelijke plicht. Je zou niet moeten profiteren van de technologie zonder dat je daar zelf ook aan bijdraagt. In Duitsland heerst een tegenovergestelde cultuur. Daar kan en wil de overheid ingrijpen om burgers te beschermen tegen het delen van data voor commercieel gebruik.

Als de Nederlandse overheid het woord ‘datasolidariteit’ gebruikt, is dus de vraag wat dat betekent. We moeten in gesprek over een balans tussen individuele autonomie en collectieve verantwoordelijkheid. Daarbij is empirisch onderzoek ook waardevol. Is het feitelijk waar dat mensen uit een collectief systeem stappen als zij de mogelijkheid tot een opt-out hebben?

Naar goed beheer van datatechnologie

Data zijn in handen van (grote) bedrijven; de technologie is een feit. Goed beheer, regels en governance structuren zijn nu nodig om AI succesvol en legitiem in de zorg in te zetten. We moeten afspraken maken over hoe de data gebruikt mogen worden.

Belangrijk is daarbij dat mensen fouten moeten kunnen maken. Ze moeten met de complexe regels leren omgaan. Informele mechanismen kunnen nuttig zijn. Als iets fout is gegaan, ga dan met elkaar in gesprek zodat de onderliggende oorzaak van de fout naar boven komt. Veel organisaties kennen al een moreel beraad; waarom beginnen we niet met een moreel databeraad?