Hoe komt AI tot zijn keuzes? Wetenschap kraakt de black box

KIJK-redactie

17 februari 2024 12:00

Zwarte doos (AI) die openbreekt en er komt blauw licht uit.

Kunstmatige intelligentie speelt een steeds grotere rol in ons leven. Maar als je geen lening krijgt ‘omdat de computer het zegt’, voel je je natuurlijk nogal onrechtvaardig behandeld. Liever hebben we dan kunstmatige intelligentie die kan uitleggen hoe ze tot haar voorspellingen komt. Gelukkig bestaan daar allerlei technieken voor.

Als je een MRI- of CT-scan ondergaat, is de kans groot dat de radioloog zich laat bijstaan door kunstmatige intelligentie. Zo zijn er AI-systemen die op een scan automatisch organen inkleuren of de afmetingen van tumoren bepalen. Dat helpt bijvoorbeeld om een bestralingsplan op te stellen bij de behandeling van kanker.

Artsen omarmen deze vorm van kunstmatige intelligentie meer en meer. Niet alleen omdat de systemen steeds beter functioneren en daardoor tijd besparen, maar ook omdat ze eenvoudig te controleren zijn. Als het systeem een fout maakt, dan ziet de arts vrij snel dat er iets niet klopt en kan hij die fout corrigeren.

Lees ook:

‘Omdat de computer het wil’

Maar die controleerbaarheid is er binnen veel andere toepassingen in de gezondheidszorg nog niet, zegt Peter Bosman, hoofd van de onderzoeksgroep evolutionary intelligence aan het Centrum Wiskunde & Informatica (CWI) in Amsterdam. “Er bestaan systemen die je een diagnose geven met de symptomen en eigenschappen van een patiënt als invoer. Dat bespaart veel tijd, maar artsen zijn terughoudend als zo’n systeem niet kan uitleggen hoe het tot die diagnose is gekomen.”

Dit type AI-systeem wordt een black box genoemd: je stopt er data in en er komt een voorspelling uit, maar je weet niet wat er binnenin gebeurt. In de zorg is dat problematisch. Als je arts je na een CT-scan vertelt dat ze behandeling X adviseert en ze na je vraag waarom alleen maar kan antwoorden “omdat de computer dat op basis van historische gegevens aanraadt”, geeft dat niet veel vertrouwen. Je wil – net zoals je arts – een verklaring.

Het ontwikkelen van AI-systemen die kunnen uitleggen hoe ze tot hun voorspellingen komen, is het onderwerp van het onderzoeksdomein uitlegbare kunstmatige intelligentie of explainable AI. In KIJK 3/2024 lees je daar alles over. Bestel deze editie in onze webshop, of eenvoudig via de knop hieronder.

Tekst: Koen Vervloesem

Beeld: Shutterstock