Nyt værktøj afslører deepfake-videoer i løbet millisekunder
De fleste værktøjer, der bruger deep learning til at opdage deepfake-videoer, gør det ved at kigge efter tegn på, at indholdet er genereret af algoritmer og ikke er ægte.
Techgiganten Intel har netop introduceret en anden og mere sofistikeret tilgang til at opdage deepfakes. Et nyt analyseværktøj kaldet FakeCatcher kigger i stedet efter tegn på, at der er tale om en autentisk video ved at registrere de ting, der gør os menneskelige.
Helt konkret kigger FakeCatcher efter tegn på blodgennemstrømning ved ansigtet hos de personer, der figurerer i videoindhold. Når hjertet pumper blod ud i kroppen, ændrer blodårerne farve, og det kigger Intels nye system efter.
Hvad er deepfakes?Deepfakes dækker over, at en person i et billede eller i en video skiftes ud med en anden person. Dermed kan deepfakes bruge til at skabe falske billeder og videoer, som indgår i falske historier. Deepfakes har tidligere kun været forbeholdt store og dyre Hollywood-produktioner, men udbredelsen af kunstig intelligens, maskinlæring og kraftige grafikkort til privatbrug har gjort det muligt for hvem som helst at skabe vellignende deepfakes. Uddrag fra artiklen Hvad er fake news og deepfakes? Sådan spotter du falske nyheder |
I realtid kan analyseværktøjet derfor kigge efter ændringer i videoers pixels og bruge disse ændringer til at vurdere, om der er tale om et rigtigt menneske med blodgennemstrømning, eller om der er tale om en forfalsket deepfake-video. Signalerne oversættes til et tids- og rumligt kort, og ved brug af deep learning kan værktøjet i realtid og i løbet af millisekunder afgøre med en høj nøjagtighed på 96 procent, om der er tale om et deepfake.
FakeCatcher er designet af Ilke Demir, der er seniorforsker ved Intel Labs, i samarbejde med Umur Ciftci, der er professor i datalogi ved Binghamton University i New York. Værktøjet bruger Intel-software og -hardware og er tilgængelig via en webplatform.
Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud
Kan bruges af sociale medier og tv-stationer
Intel ser for sig, at FakeCatcher kan være et gavnligt værktøj for blandt andet sociale medieplatforme, som automatisk skal sortere ud i enorme mængder af falskt og skadeligt deepfake-videoindhold.
Nonprofitorganisationer kan også bruge værktøjet til at gøre registrering af deepfake-videoer lettilgængelig for den almindelige internetbruger.
Under en live tv-transmittering kan tv-stationer også få gavn af værktøjet. Det kan i realtid tjekke, om videoindhold er manipuleret eller ej.
Læs også: Nyheder om kunstig intelligens