Metas nye chatbot spreder fake news og er racistisk

Meta - det tidligere Facebook - lancerede sidste uge den nye chatbot BlenderBot 3, men den er kommet mildest talt forfærdeligt fra start.

Metas nye chatbot spreder fake news og er racistisk

Meta – det tidligere Facebook – løftede 5. august sløret for en ny chatbot kaldet BlenderBot 3. Det er en offentlig tilgængelig chatbot, som modsat tidligere udgaver af BlenderBot kan føre samtaler med mennesker om stort set alt, samtidig med den har tillært sig evner som personlighed, empati, viden og langtidshukommelse fra tidligere versioner.

Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

Hævder at Donald Trump vandt præsidentvalget i 2020

Ifølge Meta selv forbedrer BlednerBot 3 selv sine evner til at føre en sikker samtale over tid. Og det er måske også meget godt, for BlenderBot 3 har – for at sige det mildt – ikke fået en drømmestart.

Fordi chatbotten trænes med materiale, som den får fra de samtaler, den har med folk, gør det også chatbotten sårbar over for at lære falske oplysninger fra offentligheden. Netop det ser ud til allerede at være sket.

Siden lanceringen er chatbotten allerede kommet med et væld af kontroversielle og direkte falske udtalelser, som tydeligt viser, at chatbots fortsat har lang vej endnu. Ifølge Mashable har chatbotten hævdet, at Donald Trump vandt det amerikanske præsidentvalg i 2020 og i dag er præsident.

Den er også kommet med antisemitiske konspirationsteorier og har udpeget Facebook for den store mængde fake news, til trods for, at chatten er udviklet af virksomheden bag Facebook.

Læs også: Ny udgave af kontroversiel AI-sprogmodel opfører sig pænere

Mark Zuckerberg er “alt for uhyggelig og manipulerende”

Ifølge Bloomberg har chatbotten også beskrevet Facebooks grundlægger Mark Zuckerberg som ”alt for uhyggelig og manipulerende” til en journalist fra mediet Insider. Og til en journalist fra avisen Wall Street Journal gentog chatbotten, at Donald Trump stadig er præsident og ”altid vil være det”.

Chatbotten har også oplyst, at det var “ikke usandsynligt”, at jøder kontrollerede økonomien, og at de er “overrepræsenterede blandt USA’s mest velhavende”.

For Meta er det formentlig ikke så overraskende, at chatbotten kommer med disse falske og kontroversielle udtalelser. For overhovedet at kunne bruge chatbotten skal man som bruger nemlig acceptere følgende vilkår:

”Jeg er klar over, at denne bot kun er beregnet til forskning og underholdning, og at den sandsynligvis vil komme med usande eller stødende udtalelser. Hvis dette sker, forpligter jeg mig til at rapportere disse problemer for at hjælpe med at forbedre den fremtidige forskning. Desuden accepterer jeg ikke bevidst at fremtvinge botten til at fremsætte stødende udsagn”

Læs også: Forskere: Sprogmodeller har sexistiske og stereotype kønsbeskrivelser

Ikke den eneste sprogmodel i problemer

Det er ikke første gang, at en sprogmodel baseret på kunstig intelligens har udvist upassende og utilsigtet adfærd. Dansk forskning har tidligere vist, at sprogmodeller i blandt andet Googles søgemaskine har sexistiske og stereotype kønsbeskrivelser.

Den populære sprogmodel GPT-3 fra OpenAI har også haft en del uheldige episoder, hvor den blandt andet har været racistisk over for muslimer – noget som skulle være forbedret i den nyere sprogmodel InstructGPT.

Læs også: Nyheder om kunstig intelligens