Forklarlig kunstig intelligens skal give læger bedre viden
AI – kunstig intelligens – vinder gradvist større plads i medicinske hjælpeteknologier. Teknikken bruges for eksempel til billedbaseret diagnosticering, hvor den kunstige intelligens kan analysere skanningsbilleder med langt højere præcision og hastighed end mennesker.
”I den vestlige verden vurderes omkring hver tiende diagnose at være forkert, så patienterne ikke får den rette behandling. Forklaringen kan skyldes manglende erfaring og træning,” siger Aasa Feragen, der er projektleder og professor på DTU Compute.
DTU Compute arbejder derfor på, at deres AI-model kan hjælpe lægepersonalet med at træffe beslutninger og virke lidt som en mentor, der giver råd og respons, når de træner.
AI skal hjælpe læger med at stille de rette diagnoser
Hidtil har AI nemlig sjældent været designet som en samarbejdspartner for lægepersonalet. Det skal DTU Computes nye human-AI-projekt ’EXPLAIN-ME’ lave om på. Projektet er støttet af det nationale forskningscenter DIREC. Målet er at udvikle forklarlig kunstig intelligens (explainable artificial intelligence eller XAI), der kan give klinikere brugbar feedback, når de uddanner sig på hospitalernes træningsklinikker.
Der arbejdes blandt andet på at forbedre ultralydsskanning af gravide, hvor en XAI-model kigger læger og jordemødre over skulderen, når de i træningsklinikken ultralydsskanner ‘gravide’ træningsdukker.
Ifølge læger afhænger kvaliteten af ultralydsskanninger og evnen til at stille rette diagnoser af, hvor megen træning lægerne har fået.
”Hvis vores model undervejs kan fortælle lægen, at der mangler en fod i billedet for, at billedet er godt nok, vil lægen muligvis kunne lære hurtigere. Hvis vi også kan få XAI-modellen til at fortælle, at sonden på ultralydsapparatet skal flyttes lidt for at få alt med i billedet, kan det måske anvendes i lægepraksis også. Det ville være fantastisk, hvis XAI også kan hjælpe mindre trænede læger til at lave skanninger, der er på højde med de meget trænede læger,” siger Aasa Feragen.
Det forventes også, at AI vil kunne gøre robotkirurgi bedre, så kirurger får mulighed for at udføre deres arbejde med højere præcision og kontrol end ved brug af traditionelle kirurgiske værktøjer. Også inden for kræftdiagnoser ventes forklarlig AI at give afgørende bedre resultater.
Læger skal forstå vejledning fra kunstig intelligens
Erfaringen viser, at AI-metoder er mere præcise i vurderingerne end lægerne, men lægerne har brug for en god forklaring på, hvorfor de matematiske modeller klassificerer en tumor som godartet eller ondartet.
Forskningslektor og leder af CAMES’ forskningsgruppe inden for kunstig intelligens, Martin Grønnebæk Tolsgaard, forklarer, at mange læger er interesserede i at få hjælp af AI-teknologien til at fastlægge den bedste behandling for patienterne.
Essensen af forklarlig AI er, at forklaringen kan forstås af mennesker, og det gør, at XAI er vejen frem, slår han fast.
”Mange af de AI-modeller, der findes i dag, giver ikke særlig god indsigt i, hvorfor de kommer frem til en bestemt beslutning. Det er vigtigt for os at blive klogere på. Hvis man ikke forklarer, hvorfor den kunstige intelligens kommer frem til en given beslutning, tror klinikerne ikke på beslutningen. Så hvis man vil bruge AI til gøre klinikerne bedre, er det ikke nok bare at få beslutningerne, men også behov for gode forklaringer, det vil sige explainable AI.”
Se også: Hvad kan man bruge kunstig intelligens til?
Om projektet
I projektet samarbejder DTU, Københavns Universitet, Aalborg Universitet og Roskilde Universitet med læger på trænings- og simulationscentret CAMES på Rigshospitalet, NordSim på Aalborg Universitetshospital samt kræftlæger på Urologisk Afdeling på Sjællands Universitetshospital i Roskilde.
Se også: Nyheder om kunstig intelligens