Dansk studie påviser store begrænsninger i AI

Forskere på Københavns Universitet har som de første i verden påvist matematisk, at det ikke er muligt at lave algoritmer, som altid er stabile – kun når der skal løses simple problemer.

Dansk studie påviser store begrænsninger i AI

Kunstig intelligens er her, dér og alle vegne. Nye AI-tjenester såsom chatbots og billedgeneratorer dukker hele tiden op, og mobilproducenter som Samsung, Google og Apple arbejder ihærdigt på at implementere nye AI-funktioner i deres produkter. Samtidig bruges AI som aldrig før i udviklingen af selvkørende biler.

Men algoritmerne er langt fra fejlfri, viser et nyt studie. En forskergruppe på Datalogisk Institut på Københavns Universitet har som de første i verden påvist matematisk, at bortset fra simple løse simple problemer er det ikke muligt at lave algoritmer, der altid er stabile til brug i maskinlæring.

Resultatet er offentliggjort i Foundations of Computer Science (FOCS).

Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

Algoritmer er ikke stabile nok til selvkørende biler

Algoritmer er nødt til at være stabile, før de kan fungere tilfredsstillende og korrekt. Tænk for eksempel på en selvkørende bil, der bruger AI til at aflæse vejskilte. Hvis nogen sætter et klistermærke på skiltet, kan mennesker som regel stadig forstå skiltet. Men en algoritme kan let blive hylet ud af den, fordi skiltet nu afviger fra det, den er blevet trænet til at afkode.

”Vi vil gerne have, at algoritmerne er stabile. Det vil sige, at selvom input ændrer sig en lille smule, skal resultatet gerne være næsten det samme. I virkelighedens verden forekommer der alle mulige former for støj, som mennesker er vante til at lukke ude, men som kan forvirre maskinerne,” siger professor Amir Yehudayoff, der leder forskningsgruppen.

Selv om forskerne ikke decideret har arbejdet med selvkørende biler, peger på de teknologien som et område, der virker som en problemstilling, der er for kompleks til, at algoritmerne altid kan være stabile.

Det er dog ikke ensbetydende med, at selvkørende teknologi ikke kan lade sig gøre ved brug af AI.

”Hvis algoritmen kun fejler under nogle få, meget specielle forhold, vil det måske være til at leve med. Det er straks værre, hvis der er en stor samling af forhold, hvor der sker fejl,” siger han.

Læs også: Se AI-modellers enorme strømforbrug og CO2-udledning

Giver matematisk definition for, hvornår en algoritme er stabil

Den nye forskning kan ikke bruges af industrien til at finde fejl i deres algoritmer – og det har heller ikke været meningen.

Forskningen er derimod teoretisk, og det er derfor også det matematiske indhold, som er nyskabende.

”Intuitivt kan vi godt forstå, at en stabil algoritme er en, der stadig virker nogenlunde som før, når der bliver tilsat lidt støj. Ligesom med vejskiltet, der har fået sat et klistermærke på,” siger Amir Yehudayoff og tilføjer:

”Men som teoretiske dataloger har vi brug for en klar definition, så vi kan beskrive problemet i matematisk sprog. Præcis hvor meget støj skal algoritmen kunne modstå, og hvor tæt skal algoritmen være på at levere det samme resultat som uden støj, for at vi betragter den som stabil? Det er det, som vi har givet et bud på.”

Læs også: Nyheder om kunstig intelligens