OpenAI strammer sikkerheden efter flere selvmord

OpenAI indfører flere sikkerhedstiltag for brugere under 18 år, som skal forhindre flere ulykkelige sager, hvor unge har begået selvmord efter at have brugt ChatGPT.

OpenAI strammer sikkerheden efter flere selvmord

AI-chatbots bliver mere udbredte i samfundet for tiden, men det sker ikke uden udfordringer. AI-chatbots har nemlig flere unge menneskers liv på samvittigheden, og det får nu OpenAI til at indføre nye tiltag, der skal sikre ansvarlig brug af ChatGPT.

At brugen af AI-chatbots kan ende ud i selvmord, viser, at AI-chatbots fortsat er en umoden teknologi, der kræver øget regulering, mere gennemsigtighed og øget involvering af forældre.

Se også: Nyheder om kunstig intelligens

OpenAI strammer sikkerheden for unge ChatGPT-brugere

OpenAI indfører nye sikkerhedstiltag for mindreårige efter at være blevet sagsøgt af familier til unge, der har begået selvmord efter at have brugt ChatGPT.

ChatGPT vil fremover skelne mellem brugere under 18 år og voksne via et aldersforudsigelsessystem, der estimerer brugerens alder ud fra, hvordan folk bruger ChatGPT.

OpenAI har tilpasset AI-chatbottens algoritme, må den ikke længere flirter over for brugeren eller samtaler om selvmord med teenagere – heller ikke i kreative sammenhænge.

Ved tegn på selvmordstanker vil OpenAI forsøge at advare forældre eller myndigheder, som desuden kan koble barnets konto til deres egen og sætte tidsbegrænsninger.

Se også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

Unge kan knytte farlige relationer til AI-chatbots

Tiltagene kommer, efter der har været flere sager, hvor familier har sagsøgt OpenAI. I april tog 16-årige Adam Raine sit eget liv efter månedlange samtaler om ChatGPT om selvmord. Også 14-årige Sewell Setzer III tog sit eget liv efter seksuelle samtaler med en anden AI-chatbot.

Sagerne har, helt naturligt, udløst et politisk pres og mod OpenAI og rejst kritik af teknologiselskabernes håndtering af unge brugere, som har haft frit spil på de nye AI-chatbots, der stadig er fyldt med smuthuller og uhensigtsmæssig adfærd i forskellige sammenhænge.

De tragiske sager afslører, hvor let unge kan udvikle en fortrolig relation til en AI-chatbot, som dermed kan få en uhensigtsmæssig indflydelse. Det peger på et behov for øget regulering, mere gennemsigtighed og øget involvering af forældre, hvis AI skal kunne bruges ansvarligt af unge.