Gezondheidsjurist Corrette Ploem: ‘Benut AI maar blijf zelf aan het stuur’

Nauwkeurig, verfijnd en razendsnel – AI heeft de potentie om diagnoses te verbeteren, besluitvorming te versnellen en de arbeidskrapte in de zorg te verminderen. Maar blijf alert, zegt Corrette Ploem. AI kan onveilige zorg opleveren, leiden tot overconsumptie van zorg, en het persoonlijk contact tussen arts en patiënt kan in het nauw komen. ‘AI is nuttig, maar laat je er niet door overrulen.’

Wat maakt AI zo anders dan andere medische technologieën?
‘AI is geen opzichzelfstaand product, zoals een MRI-scanner of een pacemaker, maar een nieuwe systeemtechnologie. AI is als de elektriciteit van de 21e eeuw en heeft de potentie samenlevingen diepgaand te veranderen. De toepassingsmogelijkheden zijn legio en dat geldt ook voor de zorg, waarin AI steeds verder binnendringt.                                                  
AI kun je grofweg op twee manieren inzetten: om de zorg te ondersteunen, en om de zorg te verbeteren. Denk in het eerste geval bijvoorbeeld aan het verlichten van administratieve verantwoordelijkheden van artsen – zoals het schrijven van een ontslagbrief –, aan het opvangen van personeelskrapte door digitale assistenten en chatbots, of aan het snel analyseren van wetenschappelijke literatuur. In het tweede geval gaat het om mogelijke verbeteringen van diagnostiek en behandeling. Zo kan een door AI ondersteunde operatierobot een ingreep beter uitvoeren waardoor de overlevingskansen toenemen en het aantal postoperatieve complicaties afneemt. Een ander voorbeeld is vroege opsporing van kanker of hartfalen met AI-gestuurde data- en beeldanalyses.’

Waar moeten medisch specialisten alert op zijn als ze gebruik willen maken van AI?
‘Het is belangrijk je te realiseren dat de inzet van AI niet automatisch betere en efficiëntere zorg oplevert. Neem bijvoorbeeld het screenen op risicofactoren voor het ontstaan van ziekten. Dat is niet per se gunstig voor patiënt en samenleving, omdat daarbij afwijkingen aan het licht kunnen komen waarvoor nog geen goede behandeling beschikbaar is. Ondertussen raken mensen wel ongerust en vragen ze om verder onderzoek. Dat leidt al snel tot overconsumptie van zorg en een nodeloos beroep op zorgmedewerkers aan wie we toch al een tekort hebben. Kijk daarom steeds goed wat gebruik van AI oplevert.’

Welke rol speelt het gezondheidsrecht bij de keuze van medisch specialisten om AI in te zetten?
‘Bij de keuze om AI in te zetten, gelden geen aparte juridische regels. De hamvraag is: handelt de arts die AI toepast als een goede hulpverlener zoals dat in het gezondheidsrecht is vastgelegd? Worden de rechten van de patiënt gerespecteerd? Is de kwaliteit van de geleverde zorg in lijn met wetgeving en professionele richtlijnen?
Relevant hierbij is de Wet kwaliteit, klachten en geschillen zorg (Wkkgz), deze vereist zorg van goede kwaliteit, oftewel: zorg die veilig, doeltreffend, doelmatig en patiëntgericht is. En de Wet op de geneeskundige behandelingsovereenkomst (WGBO) die verlangt dat artsen en andere zorgverleners zich houden aan de voor hen geldende professionele standaard, zoals vastgelegd in protocollen en richtlijnen die door medische verenigingen en beroepsorganisaties zijn opgesteld. Aan die zelfregulering is in de praktijk veel behoefte, omdat richtlijnen concrete en praktische handvatten bieden aan artsen en leidend zijn voor hun dagelijks handelen, óók bij de keuze om AI in te zetten. Wettelijke normen zijn vaak abstract en juridisch geformuleerd, ze geven slechts de hoofdrichting van het handelen aan. Bedenk ook dat in richtlijnen rekening is gehouden met alle relevante wetten, nationaal en Europees, en dat richtlijnen veel gemakkelijker geüpdatet kunnen worden dan wetten, waarbij dat jaren in beslag neemt.’

Wat betekent het inzetten van AI bij diagnostiek en behandeling voor de aansprakelijkheid van artsen?
‘De aansprakelijkheid voor falende AI is binnen het recht nog niet uitgekristalliseerd, maar ik kan er wel iets over zeggen. Wat juridisch telt, is dat AI weliswaar belangrijke informatie geeft, maar niet de regie van arts en patiënt bij de besluitvorming over de behandeling mag overnemen. Dit is niet in nationale wetgeving vastgelegd, maar volgt wel uit de algemene Europese wet over het gebruik van AI. En dat is niet alles. Artsen mogen AI alleen inzetten als zij voldoen aan drie voorwaarden: de AI voldoet aan de veiligheidseisen van de Europese AI-wetgeving; het inzetten van AI is volgens de geldende professionele richtlijnen veilig en verantwoord; bij gebruik van AI moet er toezicht zijn op de werking ervan. 
Als een arts heeft gehandeld conform deze voorwaarden, ligt het niet voor de hand hem of haar aansprakelijk te houden voor de schade die een verkeerde diagnose of een verkeerd behandelbesluit heeft veroorzaakt, en die is terug te voeren op de inzet van AI. Dat neemt niet weg dat artsen problemen en gebreken van AI wel moeten signaleren en melden aan de ontwikkelaar.
Is de arts niet aansprakelijk, dan komen andere partijen in beeld: degene die het systeem heeft ontwikkeld en op de markt gebracht, of het ziekenhuis als dat is tekortgeschoten in het bieden van een goede infrastructuur voor goed toezicht. Er is nog geen duidelijk kader dat artsen en ziekenhuizen daarmee helpt. Dat lijkt me een mooi onderwerp voor een landelijke richtlijn.’

‘De aansprakelijkheid voor falende AI is binnen het recht nog niet uitgekristalliseerd’

U pleit ervoor het persoonlijke contact tussen arts en patiënt via een wettelijke norm veilig te stellen. Waarom?
‘Persoonlijk contact is dé manier om goed te communiceren met de patiënt, en goede communicatie is essentieel om goede zorg te kunnen verlenen. Schiet de communicatie te kort, dan zal de patiënt minder makkelijk meewerken aan de behandeling en ontstaan er eerder fouten. Ik zie “persoonlijk contact” wel breed: het kan ook op afstand plaatsvinden, via videobellen of een telefoongesprek. Welke vorm dat persoonlijk contact heeft moet al aan het begin van de behandelrelatie aan de orde komen en is mede afhankelijk van de voorkeuren en de zorgbehoefte van de patiënt. In specifieke omstandigheden zoals de COVID-19 pandemie, of bij een tekort aan zorgverleners, moeten artsen de ruimte hebben om weloverwogen van live-contact af te zien. Bijvoorbeeld bij handelingen als het voorschrijven van een eenvoudig geneesmiddel of het opstellen van een doorverwijzing. Een arts moet ook tegenwicht kunnen bieden aan patiënten die zonder goede reden zulk live-contact willen.’

Een andere kwestie die door AI urgenter wordt, is het delen van grote hoeveelheden patiëntgegevens. Welke risico’s ziet u?
‘Het gebruik van patiëntgegevens voor wetenschappelijk onderzoek is onder meer geregeld in de WGBO. Daarin staat dat artsen patiëntgegevens alleen met derde partijen – zoals wetenschappers of bedrijven – mogen delen als patiënten daarvoor toestemming hebben gegeven. Die toestemming is niet nodig als het ontbreken daarvan het onderzoek onevenredig belemmert – bijvoorbeeld als er bias van de data dreigt doordat er te weinig gegevens beschikbaar zijn van een specifiek patiëntencohort. In deze gevallen hebben patiënten vooraf wel een bezwaarmogelijkheid gehad. 
Om toestemming vragen biedt de meeste garantie dat patiënten zich ervan bewust zijn dat hun gegevens voor onderzoek kunnen worden gebruikt. Zonder die transparantie en zeggenschap kunnen we het vertrouwen van patiënten in de zorg gemakkelijk verliezen, zeker in relatie tot AI-ontwikkelingen die nog dieper ingrijpen op hun privacy dan met de huidige technologieën het geval is. Tegenwoordig gaan er echter steeds meer stemmen op om, in het belang van technologische vooruitgang, het bezwaarsysteem te hanteren. Dat is ook het uitgangspunt van het Europese voorstel voor data-uitwisseling in de zorg (de European Health Data Space). Het lijkt erop dat deze ontwikkeling niet meer te stoppen is, en ik verwacht daarom dat de huidige WGBO-regeling hierop zal worden aangepast.’

Wat betekent dat voor de privacy van patiënten? En welke rol kan het recht hierbij spelen?
‘Ik kan leven met een bezwaarsysteem bij niet-risicovolle vormen van data-uitwisseling, mits patiënten hierover persoonlijk informatie ontvangen. Denk dan aan data die voorafgaand aan de uitwisseling gepseudonimiseerd (versleuteld, red.) zijn en niet worden gedeeld met commerciële partijen of met onderzoekers in landen met lagere niveaus van privacybescherming.
Ik vind een bezwaarsysteem onvoldoende bij meer risicovolle data-uitwisselingen, zoals het met onderzoekers delen van DNA-sequenties of zeldzame DNA-varianten. Bij dergelijke gegevens zijn er ondanks de pseudonimisering meer privacy-risico’s, zeker als die onderzoekers nauw samenwerken met bedrijven of met onderzoekers buiten de EU. Bovendien bestaat bij deze data de kans dat onderzoek bevindingen oplevert die je aan patiënten wilt terugkoppelen. In dit soort gevallen zal toestemming echt het uitgangspunt moeten blijven, en moeten ziekenhuizen van geval tot geval beoordelen of daarvan kan worden afgeweken.
Graag zou ik zien dat deze beoordeling, bij voorkeur uitgevoerd door een onafhankelijke medisch-ethische commissie, in de wet wordt vastgelegd. Ziekenhuizen zullen ook zelf scherp moeten blijven op het eigendom van databestanden en lichaamsmaterialen. Geef die liever niet aan commerciële partijen en zo wel, stel daaraan dan strikte voorwaarden. Zo zouden data toegankelijk moeten blijven voor wetenschappelijk onderzoek en zouden bedrijven niet zonder toestemming van patiënten data mogen overdragen aan andere bedrijven.’

Wat raadt u medisch specialisten aan als het gaat om een verantwoorde omgang met AI?
‘Alle specialismen zouden er goed aan doen om de kansen en risico’s voor hun eigen specialisme in kaart te brengen. Waar zetten we op in? Waarop moeten we alert zijn als het gaat om aansprakelijkheid? Mijn advies: richt binnen je specialisme een werkgroep AI op! 
De individuele medisch specialist zou ik vooral willen meegeven: ga altijd na of de beroepsgroep het gebruik van AI verantwoord vindt, en blijf vervolgens zelf “in control”. Zie AI als iets wat nuttig is en je denken verscherpt, maar laat je er niet door overrulen en blijf zelf aan het stuur.’


Aandacht voor AI bij de Federatie

Ook de Federatie heeft oog voor de potentie van AI-technologie in de zorg én de uitdagingen daarbij. Om zorgprofessionals en wetenschappelijke verenigingen te ondersteunen, is de commissie AI opgericht. Er vinden geregeld netwerkbijeen­komsten plaats over AI-gerelateerde onderwerpen. Daarnaast is AI een belangrijk onderwerp in de visie Medisch Specialist 2035 die in ontwikkeling is.


Corrette Ploem (1966) is gezondheidsjurist en bijzonder hoogleraar recht, zorgtechnologie en geneeskunde (KNMG-leerstoel). Ze is verbonden aan de medische en de juridische faculteit van de Universiteit van Amsterdam. Ploem doet onderzoek naar de juridische aspecten van medisch-wetenschappelijk onderzoek en nieuwe technologieën op het gebied van dataverwerking, AI, voortplanting en genetica.


Download het artikel als pdf
Lees meer artikelen uit het magazine