calendar tag arrow download print
Image
AI in de zorg blog 2
artikel
23 januari 2020

Beleid voor AI in de zorg: een waardenafweging

Kunstmatige intelligentie Gezondheidszorg Blogserie
Illustratie: Max Kisman
In de blogserie ‘Gezonde Bytes’ onderzoeken we hoe kunstmatige intelligentie (AI) verantwoord voor onze gezondheid wordt ingezet. In dit tweede deel beschrijft Ron Roozendaal, directeur informatiebeleid bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS), het AI-beleid van het ministerie. VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren. Daarvoor moeten waarden als zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd. Het ministerie stimuleert een open gesprek over de gevolgen van kunstmatige intelligentie in de zorg.

In het kort

  • Hoe wordt AI verantwoord voor onze gezondheid ingezet? Daarover gaat deze blogserie.
  • Het ministerie van VWS streeft ernaar de kansen te benutten om met AI de gezondheidszorg te verbeteren, zodanig dat publieke waarden, zoals zelfbeschikking, solidariteit, privacy en non-discriminatie worden gewaarborgd.
  • Het ministerie stimuleert het gesprek over de gevolgen van kunstmatige intelligentie in de zorg.

Bij de inzet van technologie moet onze gezondheid centraal staan. Op zoek naar goede voorbeelden van verantwoorde inzet van kunstmatige intelligentie in de zorg, vroeg het Rathenau Instituut belangrijke spelers op het gebied van gezondheid en welzijn in Nederland naar hun ervaringen. In deze blogserie delen we deze inzichten via onze website. Hoe maken we nu en in de toekomst gezonde keuzes? Hoe zorgen we dat we zelf kunnen beslissen waar dat kan? En begrijpen we op welke manier anderen verantwoordelijkheid nemen voor onze gezondheid waar dat moet?

Nieuwe vragen

Kunstmatige intelligentie (artificial intelligence, AI) staat in de belangstelling. Onder andere in het Strategisch Actieplan AI staan de ambities van het kabinet benoemd. NWO, ZonMW en bedrijven investeren in onderzoek naar AI, omdat alleen door praktijkervaring de toepassingen beproefd kunnen worden. Dit onderzoek dient tevens antwoord te geven op talloze vragen: Hoe draagt AI bij aan de gezondheid van mensen? Wie kan AI succesvol in de zorg toepassen? Welke risico’s zijn er bij het toepassen van AI en zijn deze toereikend terug te dringen? Bij het ministerie van Volksgezondheid, Welzijn en Sport (VWS) kijken wij ook naar wet- en regelgeving. Welke belemmeringen zijn er om data te kunnen gebruiken en welke waarborgen zijn er nodig?

Dokters moeten doorleren als ze gaan werken in de zorg, terwijl algoritmen moeten stoppen met leren nadat ze zijn toegelaten, omdat hun werkwijze niet mag veranderen. Wat vinden we daarvan? Durven zorgprofessionals verantwoordelijkheid te nemen voor de diagnoses van algoritmen? Willen we – en kunnen we – precies weten hoe algoritmen werken, of kijken we vooral naar de uitkomsten? Algoritmen worden nu in veel gevallen getraind met buitenlandse data. Zijn die wel van toepassing op patiënten in Nederland, en hoe zorgen we dat ook data van Nederlandse patiënten gebruikt kunnen worden voor onderzoek, met behoud van waarborgen als privacy en veiligheid?

Dit zijn nieuwe vragen waarop het antwoord nog gevonden moet worden. 

Kansen grijpen, waarden borgen

De uitdaging is om kunstmatige intelligentie toe te passen voor een betere gezondheidszorg op een manier die recht doet aan de publieke waarden die we willen waarborgen. Denk aan zelfbeschikking, solidariteit, privacy en non-discriminatie. Dat is het streven van VWS.

Er zijn pioniers, zoals Pacmed en het UMC Utrecht. Pacmed is ontstaan uit de Nationale Denktank 2014 over big data. Pacmed ontwikkelt big data-oplossingen in de zorg. Het UMC Utrecht heeft een AI toepassing ontwikkeld binnen de psychiatrie. Floortje Scheepers, hoogleraar Innovatie in de GGZ, bouwt met het project PsyData algoritmen op basis van data uit het Elektronisch patiëntendossier om de keuze te ondersteunen voor de beste medicatie voor patiënten. Samen zullen we nieuwe mogelijkheden op een goede manier een plek moeten geven in de zorg. Het is een zoektocht die het ministerie van VWS wil ondersteunen.

Het ministerie van VWS vindt het belangrijk dat patiëntdata voldoende beschikbaar zijn voor onderzoek om de zorg met nieuwe AI-toepassingen te kunnen verbeteren. Het ministerie heeft het ontstaan van MedMij gestimuleerd. MedMij is een Nederlands afsprakenstelsel dat het voor patiënten mogelijk maakt om hun gezondheidsgegevens, die op verschillende plekken bewaard worden, in één volledig overzicht (de persoonlijke gezondheidsomgeving PGO) digitaal te bekijken, te beheren en veilig te delen met zorgverleners. Inmiddels is MedMij aangesloten bij de Datadeelcoalitie, een sector-overstijgende samenwerking, om te komen tot een afsprakenstelsel voor het veilig en verantwoord delen van data. De ethische en juridische kaders omtrent kunstmatige intelligentie zijn deels bestaande kaders. Zo schrijft de Algemene Verordening Gegevensbescherming (AVG) voor hoe de privacy dient te worden beschermd en de Richtlijn Medische Hulpmiddelen (MDR) stelt eisen aan software die wordt ingezet als medisch hulpmiddel.

Zorginstellingen moeten ook waarden borgen met hun kwaliteitssystemen en ethische toetsingscommissies om hun medewerkers en patiënten in staat te stellen verantwoord gebruik te maken van AI. Dat vraagt om bewustzijn van de waarden die op het spel staan en bekwaamheid om AI-toepassingen te gebruiken, zowel bij de zorgprofessional als bij de patiënt.

Waarden samen afwegen

In het rapport Digitale dokters stelt het Centrum Ethiek en Gezondheid ethische vragen. Is het ethisch verantwoord om nieuwe AI-toepassingen niet toe te passen – ook als bewezen is dat ze de gezondheid van patiënten ten goede komen? Bij het toepassen van kunstmatige intelligentie moet een afweging worden gemaakt tussen de kwaliteit van de zorg en publieke waarden, zoals autonomie, transparantie en solidariteit.

In de Kamerbrief Data laten werken voor gezondheid heeft het ministerie van VWS deze waardenafweging expliciet gemaakt. Patiënten hebben de regie over hun patiëntdata, maar het is ook van belang dat data voldoende worden gedeeld om innovaties in de zorg mogelijk te maken. Algoritmen dienen te worden getoetst op hun validiteit. Leveren ze betere zorg, zonder te leiden tot discriminatie of andere onwenselijke uitkomsten? Als een algoritme aantoonbaar betere zorg levert, terwijl niet transparant is hoe het algoritme werkt, mag het dan worden gebruikt?

Voor het antwoord op deze vragen werken de verschillende ministeries samen. De Agenda Digitale Overheid (NL DIGIbeter), een gezamenlijke agenda van het kabinet, adresseert transparantie en ethische aspecten van kunstmatige intelligentie. De lessen hierin zijn ook behulpzaam voor de zorg.

Een open gesprek

Het ministerie van VWS ziet in dat onze gezondheid baat kan hebben bij AI-toepassingen. Dat vraagt een open gesprek over de gevolgen van kunstmatige intelligentie voor patiënten en zorgverleners. Welke waarden worden versterkt en welke worden verzwakt? Wat vinden we maatschappelijk acceptabel? Dat is een gesprek waar we allemaal een rol in hebben: burgers, patiënten, zorgverleners, Kamerleden en innovatieve partijen. Het ministerie van VWS stimuleert dat gesprek, bijvoorbeeld door de Tweede Kamer te informeren over ontwikkelingen en door bijeenkomsten te organiseren zoals het Informatieberaad Zorg.