Metas nyeste sprogmodel blev lukket ned allerede efter tre dage
Tre dage. Så længe fik den nye AI-sprogmodel Galactica, som Meta og Papers with Code lancerede 15. november, lov til at leve. I den korte tid, sprogmodellen nåede at være tilgængelig, nåede den allerede at modtage massiv kritik. Det har Meta og Papers with Code ganske hurtigt taget konsekvensen af.
”Tak til alle for at prøve demoen af Galactica-modellen. Vi sætter pris på den feedback, vi har modtaget indtil videre fra fællesskabet, og vi har sat demoen på pause indtil videre. Vores modeller er tilgængelige for forskere, der ønsker at lære mere om arbejdet og reproducere resultaterne i forskningsartiklen (om Galactica, red.),” lyder det i et tweet.
Thank you everyone for trying the Galactica model demo. We appreciate the feedback we have received so far from the community, and have paused the demo for now. Our models are available for researchers who want to learn more about the work and reproduce results in the paper.
— Papers with Code (@paperswithcode) November 17, 2022
Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud
Opfinder egne sandheder ud af det blå
Det var ellers meningen, at Galactica skulle hjælpe forskere og studerende ved at fungere som en form for genvej til information. Sprogmodellen var blevet trænet med 48 millioner eksemplarer af videnskabelige artikler, bøger, notaer og encyklopædier.
Alle disse træningsdata gjorde ifølge Meta sprogmodellen i stand til at ”opsummere akademiske artikler, løse matematiske problemer, generere Wiki-artikler, skrive videnskabelig kode, kommentere molekyler og proteiner og meget mere.”
Efter lanceringen af den offentlige demo af sprogmodellen viste det sig dog hurtigt, at Galactica lider under samme problemer som mange andre sprogmodeller. Den er en hjerneløs robot, der ikke kan skelne fakta fra fiktion. AI’en genererede for eksempel falske forskningsartikler og krediterede dem til rigtige forfattere, genererede wiki-artikler om den ikkeeksisterende historie om bjørne i rummet lige så let som artikler om proteinkomplekser og lysets hastighed.
Problemet, lyder det fra kritikere, er, at det ganske vist kan være nemt at spotte, at en artikel om bjørne i rummet er det pure opspind, men knap så nemt, når det handler om emner, som folk ikke kender til.
Læs også: Forskere: Sprogmodeller har sexistiske og stereotype kønsbeskrivelser
Farlig sprogmodel
Michael Black, der er direktør ved Max Planck Institute for Intelligent Systems i Stuttgart, Tyskland, er en af kritikerne af den nye sprogmodel. I en serie af tweets demonstrerer han en række problemer med sprogmodellen.
I asked #Galactica about some things I know about and I’m troubled. In all cases, it was wrong or biased but sounded right and authoritative. I think it’s dangerous. Here are a few of my experiments and my analysis of my concerns. (1/9)
— Michael Black (@Michael_J_Black) November 17, 2022
”Jeg spurgte Galactica om nogle ting, jeg kender til, og jeg er bekymret. I alle tilfælde var det forkert eller forudindtaget, men det lød rigtigt og autoritativt. Det, synes jeg, er farligt,” skriver han.
Læs også: Nyheder om kunstig intelligens