Skaberne bag ChatGPT: AI skal reguleres på samme måde som atomkraft

AI skal ifølge OpenAI reguleres og overvåges på samme måde, som Det Internationale Atomenergiagentur overvåger misbrug af atomkraft til atomvåben.

Skaberne bag ChatGPT: AI skal reguleres på samme måde som atomkraft

Der er kraftigt behov for øget regulering og overvågning af kunstig intelligens. Sådan lyder det fra en af pionervirksomhed bag moderne AI, OpenAI.

Læs også: Sådan former teknologi samfundet og kaprer menneskers hjerne

Efterlyser AI’ens svar på atomkraftens Internationale Atomenergiagentur

I et blogindlæg oplyser skaberne bag, Sam Altman, Greg Brockman og Ilya Sutskever, at der er behov for, at ”superintelligent” AI reguleres af en pendant til Det Internationale Atomenergiagentur, som findes inden for forskningen i og brugen af atomkraft for at sikre, at teknologien ikke anvendes til udvikle noget, der kan koste menneskeliv.

Ifølge OpenAI er det nødvendigt med et organ, der kan ”inspicere systemer, kræve revisioner, teste om sikkerhedsstandarderne er overholdt og indføre restriktioner for udbredelsesgrader og sikkerhedsniveauer” for at reducere den “eksistentielle risiko”, som sådanne systemer kan udgøre.

“Det er ikke utænkeligt, at AI-systemer inden for de næste 10 år vil overgå ekspertniveauet inden for de fleste områder og udføre lige så meget produktiv aktivitet som en af nutidens største virksomheder,” lyder det.

”Med hensyn til både potentielle fordele og ulemper vil superintelligens være mere kraftfuld end andre teknologier, som menneskeheden tidligere har måttet kæmpe med. Vi kan få en langt mere velstående fremtid, men vi er nødt til at håndtere risikoen for at nå dertil. I betragtning af muligheden for eksistentielle risici kan vi ikke bare være reaktive.”

Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

Techgiganter skal samarbejde om ansvarlig AI

Det lyder også fra OpenAI-ledelsen, at der bør ske ”en grad af koordinering” mellem de førende virksomheder, der arbejder med AI. Det skal sikre, at udviklingen af mere avancerede AI-modeller harmonerer med samfundet som helhed, og at sikkerheden prioriteres højt.

Denne koordinering mellem virksomheder, der arbejder med de mest avancerede AI-projekter, kan ske enten gennem lovgivning eller gennem kollektive aftaler, som begrænser AI-algoritmers færdigheder.

AI-kapløb mellem it-giganter kan køre af sporet

Frygten for algoritmer og de potentielle skader, de kan have for samfundet, er ikke noget nyt fænomen. Men med det seneste års opblostring af AI i forbrugerrettede produkter fra blandt andet OpenAI, Microsoft, Google og Snap, er teknologien pludselig begyndt at fylde meget i mange menneskers hverdag.

Mellem de største techgiganter foregår der lige nu et regulært kapløb om at være først med de bedste løsninger, og det er af frygt for, at dette kapløb kører af sporet, så etiske hensyn tilsidesættes til fordel for at vinde kapløbet, at OpenAI nu slår bremserne i.

Fortsat udvikling af AI er risikoen værd

Den store udfordring, som OpenAI også pointerer i sit blogindlæg, er, at man endnu ikke ved, hvordan mekanismer, der kan håndtere de risici, der er for misbrug af AI, skal designes. Det til trods er det ifølge OpenAI fortsat risikoen værd at fortsætte udviklingen af kraftige systemer baseret på AI.

“Vi tror på, at det vil føre til en meget bedre verden end den, vi kan forestille os i dag (vi ser allerede de første eksempler på dette inden for områder som uddannelse, kreativt arbejde og personlig produktivitet),” lyder det.

OpenAI advarer også om farerne ved at sætte udviklingen af AI på pause:

“Fordi fordelene er så enorme, falder omkostningerne til at bygge det hvert år, antallet af aktører, der bygger det, stiger hurtigt, og det er i sagens natur en del af den teknologiske vej, vi er på. At stoppe det ville kræve noget i retning af et globalt overvågningsregime, og selv det er ikke garanteret at virke. Så vi er nødt til at gøre det rigtigt.”

Læs også: Nyheder om mennesket og teknologi