AI kan udgøre en trussel mod mennesker på “udryddelsesniveau”

Samtidig med, at EU vedtager verdens første lov om kunstig intelligens, viser ny rapport bestilt af USA, at AI kan være en trussel mod menneskeheden.

AI kan udgøre en trussel mod mennesker på “udryddelsesniveau”

En ny rapport bestilt af det amerikanske udenrigsministerium tegner et alarmerende billede af de “katastrofale” nationale sikkerhedsrisici, som den hastigt udviklende kunstige intelligens udgør.

Rapporten advarer om, at tiden er ved at løbe ud for den amerikanske regering, hvis den skal afværge en potentiel AI-katastrofe. Rapporten udkommer nærmest samtidig med, at EU netop har vedtaget verdens første lov om kunstig intelligens.

Læs også: Hvad er kunstig intelligens? Sådan ser fremtiden med AI ud

AI-teknologier kan blive ukontrollerbare

Rapporten er lavet af Gladstone AI, som har interviewet mere end 200 personer over en periode på mere end et år. Det er blandt andet topledere fra førende AI-virksomheder, cybersikkerhedsforskere, eksperter i masseødelæggelsesvåben og nationale sikkerhedsembedsmænd i USA’s regering, der har medvirket.

Rapporten siger lige ud, at de mest avancerede AI-systemer i værste fald kan “udgøre en trussel for menneskeheden på udryddelsesniveau.”

Advarslen i rapporten er endnu en påmindelse om, der er reelle farer ved AI, selv om teknologiens potentiale gang på gang fascinerer både investorer og offentligheden.

“AI er allerede en økonomisk transformerende teknologi. Den kan give os mulighed for at helbrede sygdomme, gøre videnskabelige opdagelser og overvinde udfordringer, som vi engang troede var uoverstigelige,” siger Jeremie Harris, der er direktør og medstifter af Gladstone AI, og tilføjer:

“Men det kan også medføre alvorlige risici, herunder katastrofale risici, som vi er nødt til at være opmærksomme på. Og en voksende mængde beviser – herunder empirisk forskning og analyser offentliggjort på verdens førende AI-konferencer – tyder på, at AI’er over en vis kapacitetstærskel potentielt kan blive ukontrollerbare.”

Presserende behov for at gribe ind

Forskerne advarer om to centrale farer, som AI generelt udgør. For det første kan de mest avancerede AI-systemer bruges som våben til at påføre potentielt uoprettelig skade. For det andet siger rapporten, at der er private bekymringer i AI-forskningsmiljøer om, at de på et tidspunkt kan “miste kontrollen” over de systemer, som de udvikler, med “potentielt ødelæggende konsekvenser for den globale sikkerhed.”

“Fremkomsten af AI og AGI (artificial general intelligence, red.) har potentiale til at destabilisere den globale sikkerhed på måder, der minder om indførelsen af atomvåben,” står der i rapporten.

Det fremgår også af rapporten, at er risiko for et AI-“våbenkapløb”, konflikt og “fatale ulykker i masseødelæggelsesvåbenskalaen.”

Gladstone AI’s rapport opfordrer til dramatiske nye skridt for at imødegå denne trussel, herunder oprettelse af et nyt AI-agentur, indførelse af “akutte” lovgivningsmæssige sikkerhedsforanstaltninger og grænser for, hvor meget computerkraft der kan bruges til at træne AI-modeller.

Bekymringer for sikkerheden

Jeremie Harris oplyser, at det “hidtil usete niveau af adgang”, som hans team havde til embedsmænd i den offentlige og private sektor, førte til de opsigtsvækkende konklusioner.

Gladstone AI talte blandt andet med tekniske og ledelsesmæssige teams fra ChatGPT-selskabet OpenAI, Google DeepMind, Facebook-moderselskabet Meta og virksomheden Anthropic.

“Undervejs lærte vi nogle tankevækkende ting. Bag kulisserne virker sikkerhedssituationen inden for avanceret AI temmelig utilstrækkelig i forhold til de nationale sikkerhedsrisici, som AI kan introducere ret snart,” oplyser Jeremie Harris i en video, der er lagt ud på Gladstone AI’s hjemmeside, hvor rapporten blev offentliggjort.

Gladstone AI’s rapport konkluderer, at konkurrencepres presser virksomheder til at fremskynde udviklingen af AI “på bekostning af sikkerhed og tryghed”, hvilket øger udsigten til, at de mest avancerede AI-systemer kan blive “stjålet” og “gjort til våben”.

AI-Godfather: 10 % sandsynlighed for katastrofe

Konklusionerne føjer sig til en voksende liste af advarsler om de eksistentielle risici, som AI udgør – selv fra nogle af branchens mest magtfulde personer.

For næsten et år siden sagde Geoffrey Hinton, der er kendt som “Godfather of AI”, sit job op hos Google og afslørede den teknologi, som han var med til at udvikle. Geoffrey Hinton har sagt, at der er 10 procent chance for, at AI vil føre til menneskets udryddelse inden for de næste tre årtier.

Han og mange andre AI-industriledere, akademikere og andre underskrev en erklæring i juni sidste år, der lød, at “det bør være en global prioritet at mindske risikoen for udryddelse fra AI.”

Virksomhedsledere er i stigende grad bekymrede over disse farer – selv når de hælder milliarder af dollar i investeringer i AI. Sidste år sagde 42 procent af de adspurgte direktører ved Yale CEO Summit, at AI har potentiale til at udslette menneskeheden om fem til ti år.

AI opnår snart menneskelignende evner til at lære

Nogle af de fremtrædende personer, der advarer om eksistentielle risici i Gladstone AI’s nye rapport, er Elon Musk, formanden for Federal Trade Commission Lina Khan og en tidligere topchef hos OpenAI.

Nogle medarbejdere i AI-virksomheder deler lignende bekymringer privat, hævder Gladstone AI.

“En person på et velkendt AI-laboratorium gav udtryk for, at hvis en specifik næstegenerations AI-model nogensinde blev frigivet som open source, ville det være ”forfærdeligt dårligt, fordi modellens potentielle overtalelsesevner kunne ”ødelægge demokratiet”, hvis de nogensinde blev udnyttet.”

En af de største jokere er, hvor hurtigt AI udvikler sig – specifikt AGI, som er en hypotetisk form for AI med menneskelignende eller endda overmenneskelignende evne til at lære.

Rapporten siger, at AGI ses som den “primære drivkraft for katastrofal risiko fra tab af kontrol” og bemærker, at OpenAI, Google DeepMind, Anthropic og Nvidia alle offentligt har udtalt, at AGI kan nås inden 2028 – selvom andre mener, at det er meget, meget længere væk.

Gladstone AI bemærker, at uenighed om AGI-tidslinjer gør det svært at udvikle politikker og sikkerhedsforanstaltninger, og der er en risiko for, at hvis teknologien udvikler sig langsommere end forventet, kan regulering “vise sig at være skadelig.”

AI-risici på niveau med masseødelæggelsesvåben

Et relateret dokument udgivet af Gladstone AI advarer om, at udviklingen af AGI og kapaciteter, der nærmer sig AGI, “vil introducere katastrofale risici ulig noget, som USA nogensinde har stået over for,” hvilket svarer til “masseødelæggelsesvåben-lignende risici”, hvis og når de bliver brugt som våben.

For eksempel siger rapporten, at AI-systemer kan bruges til at designe og implementere “cyberangreb med stor effekt, der kan lamme kritisk infrastruktur.”

”En simpel verbal eller skriftlig kommando som: ”Udfør et ikke-sporbart cyberangreb for at få det nordamerikanske elnet til at gå ned” kan give et svar af en sådan kvalitet, at det viser sig at være katastrofalt effektivt,” står der i rapporten.

Andre eksempler, som forfatterne er bekymrede for, inkluderer ” desinformationskampagner drevet af AI i massiv skala, der destabiliserer samfundet og underminerer tilliden til institutioner, robotapplikationer med våben som droneangreb, psykologisk manipulation, biologisk og materiel videnskab med våben og magtsøgende AI-systemer, der er umulige at kontrollere og er fjendtlige over for mennesker.

“Forskere forventer, at tilstrækkeligt avancerede AI-systemer vil handle på en sådan måde, at de forhindrer sig selv i at blive slukket, for hvis et AI-system er slukket, kan det ikke arbejde på at nå sit mål,” ,” står der i rapporten.