‘Het kritisch vermogen van de medisch specialist blijft onmisbaar’

Dossier: Artificial Intelligence

Maartje Schermer is hoogleraar filosofie en ethiek van de geneeskunde en hoofd van de afdeling Medische ethiek, filosofie en geschiedenis van de geneeskunde aan het Erasmus MC. Ze biedt een klein kompas op de woelige baren van Artificial Intelligence (AI). Angst is niet nodig, afspraken zijn dat wel. 

In 2019 schreef je in NRC dat medische expertsystemen hun grootse beloften nog niet waarmaken. Is daarin verbetering gekomen? 
‘Nee, we kunnen diagnostiek en behandelbeslissingen nog steeds niet zomaar overlaten aan AI, zeker in situaties van multimorbiditeit en langdurige zorg is de individuele situatie van patiënten daarvoor vaak te complex. Het is ook niet zo dat alles vanzelf sneller, makkelijker of goedkoper wordt door inzet van AI. Maar we staan wel aan de start van grote ontwikkelingen!’ 

Zal AI in alle vakgebieden doordringen? 
‘Zeker. Zelfs in een specialisme als de psychiatrie, waar het misschien nog een ver-van-mijn-bed-show lijkt, wordt gewerkt aan voorspellende modellen en zijn er bijvoorbeeld experimenten met virtual reality. Maar op dit moment zie je AI vooral goed functioneren bij beeldanalyse op de radiologieafdeling en in andere situaties waarin met veel data wordt gewerkt, zoals in de pathologie en in laboratoria. AI kan de medisch specialist op de werkvloer veel routinematig werk uit handen nemen en snelheid opleveren. Maar het kritisch vermogen van de medisch specialist blijft onmisbaar. En een AI-toepassing zal ook nooit een slechtnieuwsgesprek kunnen voeren.’ 

Afbeelding artikel

Hoe kijk jij naar de juridische kant, waar ligt de verantwoordelijkheid als AI tot foute diagnoses en behandelingen leidt? 
‘Ik zie hier veel overeenkomsten met andere medische hulpmiddelen. Als arts moet je jezelf er altijd van vergewissen wat de kwaliteit is, en wat de risico’s en de mogelijke “bijwerkingen” van AI-toepassingen zijn. Je blijft zelf verantwoordelijk voor de hulpmiddelen die je gebruikt. Daarom zijn goed onderzoek en goed toezicht van het grootste belang, individuele artsen moeten weten waar ze aan toe zijn als ze voor AI kiezen.’ 

Wat vergt AI dan van de mindset van medisch specialisten? 
‘Ze zullen hun kennis en vaardigheden gaandeweg anders moeten gaan inzetten dan ze gewend zijn. Neem het niet-pluis gevoel. AI levert veel inzichten op, maar hoe weet je op welke momenten je je onderbuikgevoel moet laten spreken en wanneer je de AI moet volgen? Het is dan de vraag: klopt deze uitkomst wel voor deze specifieke patiënt? Is die hier echt mee geholpen, zijn alle relevante factoren wel in ogenschouw genomen? Je kunt nooit alleen maar klakkeloos op AI gaan leunen, dan kom je terecht in een situatie van deskilling, waarin je je vakkundigheid gaandeweg uit handen laat slaan. Het bewustzijn hierover, het leren werken mét AI, is een groeiend onderdeel van het curriculum van opleidingen aan het worden.’ 

Worden artsen dataspecialist? 
‘Zolang ze maar geen datafetisjist worden. Het doel is en blijft de patiënt. Het is de vraag of die altijd gebaat is bij de schijnprecisie die AI kan opleveren. Het gaat daarbij al snel om procenten en getallen, terwijl de patiënt vaak gewoon aandacht wil, een goed gesprek over onzekerheden, opties en persoonlijke prioriteiten. En in de operatiekamer zal de chirurg ook niet snel een keuze maken op basis van AI, al zal AI daar op de achtergrond wel een grotere rol gaan spelen. Data en algoritmen zullen hoe dan ook steeds belangrijker worden voor de medisch specialist. Je ziet nu ook al de eerste datastewards in ziekenhuizen en in de samenwerking tussen Rotterdam, Delft en Leiden bestaat al langere tijd een mooi nieuw vakgebied dat veel met AI doet: klinische technologie.’  

Wat raad je medisch specialisten aan? 
‘Ik denk dat AI-toepassingen in multidisciplinaire teams tot stand moeten komen, wat ook vaak al gebeurt. In het Erasmus MC ontwikkelen we daar ook beleid op. Met verschillende perspectieven hou je elkaar scherp.’ 

Waar moeten medisch specialisten op letten als ze de samenwerking met het bedrijfsleven aangaan? 
‘Er is een verschil tussen de grote techbedrijven als Google en Microsoft en kleinere spelers die concrete zorginnovaties ontwikkelen. De grote spelers zijn verantwoordelijk voor de onderliggende infrastructuren en systeemsoftware. Ze zijn machtig, ondoorzichtig, commercieel en niet speciaal gericht op het belang van patiënten of van de zorg, terwijl we er wel steeds afhankelijker van worden. De hoognodige beteugeling van die partijen ligt in handen van overheden en politiek. Kleinere leveranciers die innovatieve toepassingen bouwen, hebben doorgaans goede bedoelingen en zijn meer op de zorg en de patiënt gericht. Maar ook met hen moeten we goede afspraken maken over bijvoorbeeld kosten, de kwaliteit van algoritmen en het eigenaarschap van de data. Vergeet overigens niet dat ook wetenschappelijke instituten en ziekenhuizen zelf veel AI-toepassingen ontwikkelen en data beheren. Net als bij de ontwikkeling van medicijnen is er ook veel sprake van samenwerking tussen publieke en commerciële partijen.’ 

Is die samenwerking met technologische bedrijven wat betreft AI vergelijkbaar met de ontwikkeling van nieuwe medicijnen en medische hulpmiddelen? 
‘De samenwerking met de farmaceutische industrie is gereguleerd, in iets mindere mate geldt dat ook voor medische hulpmiddelen – waar sommige AI ook onder valt. Neem de European Medicines Agency (EMA), die erop toeziet dat medicijnen zorgvuldig­ zijn getest voordat ze in Europa op de markt gebracht kunnen worden. Dit toezicht ontbreekt ­grotendeels bij AI, terwijl ook AI een steeds grotere impact heeft op de medische zorg. En ook al begrijpen we nog niet goed wat ons overkomt met AI, sturing van nieuwe technologie is zeker mogelijk. Kijk bijvoorbeeld naar de afspraken over gene-editing die we wereldwijd hebben kunnen maken. Die voorkomen overhaaste toepassing van die technologie. EMA biedt overigens vooral een check achteraf, als medicijnen al uitontwikkeld zijn. Ontwikkeling van goede AI vraagt al om checks and balances vanaf de prille start omdat je in de ontwerpfase van AI-toepassingen cruciale keuzes maakt. Die kunnen leiden tot ongewenste bias in de dataverzameling en data-analyse.’ 

Zoals? 
‘Denk aan etnische of sekseverschillen. Een Hindoestaanse diabetespatiënt heeft misschien een ander behandeladvies nodig dan een witte Europeaan. En vrouwelijke hartpatiënten zijn echt verschillend van mannelijke hartpatiënten. Als je enkel data gebruikt van witte Europese mannen – om het een beetje gechargeerd te zeggen – dan werkt de AI dus minder goed voor die andere groepen patiënten. Soortgelijke bias kan ontstaan op basis van bijvoorbeeld welstand, leefpatronen, regio, opleidingsniveau en leeftijd. Mijn onderzoeksgroep werkt nu mee aan een prognostisch model voor oncologie. We zien daar een risico dat er een bias in sluipt doordat roken en obesitas van invloed zijn op prognose en succeskans van behandelingen. Maar die twee factoren komen ook relatief vaker voor in bepaalde bevolkingsgroepen. Als je dan op basis van een prognostisch model bepaalde behandelingen voor individuen zou afwijzen op basis van rookgedrag of gewicht, benadeel je automatisch die bevolkingsgroepen. En daarmee versterk je misschien ongewild de grote sociaaleconomische gezondheidsverschillen in Nederland.’ 

Maar als die alles veranderende toepassing er eenmaal is...? 
’Dan is het de vraag of de werkpraktijk zich erop laat aansluiten en of de professionals ermee aan de slag willen. Hebben professionals en patiënten voldoende vertrouwen in de AI-toepassing, en laat het zich inpassen in werkprocessen? In een project over thuismonitoring van hartpatiënten zagen we bijvoorbeeld dat de verpleegkundigen het niet leuk vonden om veel tijd door te brengen met reageren op meldingen achter een monitor – ze wilden rechtstreeks contact met hun patiënten. En patiënten verwachtten dat er altijd iemand meekeek en voelden zich daar veilig door – terwijl er feitelijk maar één keer per dag naar de meldingen werd gekeken. Verwachtingenmanagement en inpassing in de dagelijkse praktijk horen er dus ook bij, die stap mogen de enthousiaste ontwikkelaars niet vergeten.’ 

Download het dossier als pdf
Ga naar alle artikelen uit het magazine

Lees meer artikelen uit dit dossier