Witold Kepinski - 28 juni 2023

CWI en LUMC starten ICAI Lab 'Explainable AI for Health'

Het Centrum Wiskunde & Informatica (CWI) en het Leids Universitair Medisch Centrum (LUMC) hebben hun krachten gebundeld in het ICAI* Lab 'Explainable AI for Health'. Ze ontwikkelen nieuwe vormen van kunstmatige intelligentie (AI) waarbij duidelijk is hoe de getrainde modellen tot bepaalde voorspellingen komen. Deze technologie kan worden gebruikt als klinische beslissingsondersteuning voor artsen en patiënten.

CWI en LUMC starten ICAI Lab 'Explainable AI for Health' image

Het doel van het lab is om nieuwe inherent uitlegbare AI-technieken en -richtlijnen te ontwikkelen en te valideren die kunnen worden gebruikt voor klinische besluitvorming. Nieuw is dat de modellen zodanig ontwikkeld worden dat ze alle beschikbare gegevens tegelijkertijd meenemen (bijvoorbeeld patiëntgerelateerde gegevens, beeldvormingsgegevens). In eerste instantie ligt de focus op oncologie, met toepassingen bij het LUMC en bij partnerinstituut Amsterdam UMC. Hieronder vallen palliatieve zorg, gynaecologische kankerzorg en zorg voor patiënten met een paraganglioom (zeldzame tumor) in het hoofd-halsgebied.

Wetenschappelijk directeur Peter Bosman (groepsleider van de onderzoeksgroep Evolutionary Intelligence bij het CWI en hoogleraar bij de TU Delft): "Klinische beslissingsondersteuning op basis van AI kan een grote meerwaarde hebben voor artsen en patiënten. Moderne AI-modellen, met name deep learning-modellen, kunnen heel krachtig zijn, maar het is niet altijd eenvoudig uit te leggen hoe ze tot een bepaalde voorspelling komen." Daarom ontwikkelen het CWI en het LUMC nieuwe vormen van AI die zo transparant mogelijk zijn, zodat artsen en patiënten begrijpen waarom een bepaalde voorspelling wordt gedaan.

Vertrouwen

"Een gebrek aan uitlegbaarheid belemmert het brede gebruik van AI voor medische toepassingen", zegt wetenschappelijk directeur Tanja Alderliesten (universitair hoofddocent bij de afdeling Radiotherapie van het LUMC). "De beschikbaarheid van AI-modellen die inherent uitlegbaar zijn, kan het vertrouwen in deze vorm van kunstmatige intelligentie doen toenemen. Deze modellen kunnen goed geïnformeerde gezamenlijke besluitvorming ondersteunen, bijvoorbeeld met betrekking tot de keuze van de behandeling of follow-up procedure (zoals de frequentie van herhaalbezoeken). Daarnaast kunnen artsen nieuwe kennis opdoen, omdat de modellen gemakkelijk te inspecteren en te begrijpen zijn. Zo wordt bijvoorbeeld inzichtelijk hoe bepaalde factoren samen een specifieke rol spelen bij het doen van voorspellingen."

*Een ICAI (Innovation Center for Artificial Intelligence) Lab is een onderzoekssamenwerking tussen industriële, overheids- of non-profit partners enerzijds en kennisinstellingen anderzijds. ICAI Labs richten zich op AI-technologie en huisvesten minimaal vijf promovendi.
Financiering van de vijf promotieplaatsen bij het 'Explainable AI for Health' Lab is extern verkregen via NWO en het Gieskes-Strijbis Fonds.

Axians 12/11/2024 t/m 26/11/2024 BN+BW