Dagens PS

Expert om AI: "Alla på jorden kommer att dö"

AI dö
AI-forskaren Eliezer Yudkowsky menar att ett litet felsteg om AI kan leda till mänsklighetens undergång. (Foto: Unsplash)
Daniel Jacobs
Daniel Jacobs
Uppdaterad: 03 apr. 2023Publicerad: 03 apr. 2023

AI-forskaren Eliezer Yudkowsky vill stänga ner all utveckling av AI omedelbart. Varför? Annars är risken “att bokstavligen alla på jorden kommer att dö”, skriver han i Time Magazine.

ANNONS
ANNONS

Mest läst i kategorin

Elon Musk och 1000 andra experter inom AI-området publicerade i förra veckan ett öppet brev där de uppmanade “alla AI-labb att omedelbart pausa i minst 6 månader utvecklingen av AI-system som är kraftfullare än GPT-4.”

Detta då AI snart kan utgöra en stor risk för samhället, enligt Musk och de andra.

Ett misstag med AI så kommer alla dö

Men kraven går inte långt nog, enligt AI-forskaren Eliezer Yudkowsky som valt att inte skriva under då han anser att brevet underskattar allvaret i situationen. Yudkowsky är inte vem som helst – han är en känd och högt respekterad forskare, skribent och filosof inom superintelligent artificiell intelligens (ASI).

“Många forskare som är genomsyrade av dessa frågor, inklusive jag själv, förväntar sig att det mest sannolika resultatet av att bygga en övermänskligt smart AI, under allt som liknar de nuvarande omständigheterna, är att bokstavligen alla på jorden kommer att dö”, skriver han i Time Magazine och tillägger:

“Inte som i ‘kanske möjligen någon avlägsen chans’, utan som i ‘det är det uppenbara som skulle hända.'”

“Vi är inte förberedda”

Han skriver att det är principiellt möjligt att skapa en AI som är mycket smartare än människor utan att mänskligheten nödvändigtvis går under likt i filmerna “The Terminator” eller “The Matrix”. Men i så fall behövs det precision, förberedelser och nya vetenskapliga insikter som saknas i nuläget.

ANNONS

“Om någon bygger en för kraftfull AI, under nuvarande förhållanden, förväntar jag mig att varje enskild medlem av den mänskliga arten och allt biologiskt liv på jorden dör kort därefter.”

“Vi är inte förberedda. Vi är inte på väg att vara förberedda inom någon rimlig tidsperiod. Det finns ingen plan”, skriver han.

Det är inte en situation där mänskligheten kan lära sig av sina misstag – om det misslyckas på första försöket med superintelligent AI så kommer alla på jorden dö. Eliezer Yudkowsky ser bara en lösning:

“Stäng av allt.”

Läs även: Elon Musk vill se AI-paus – utgör risk för samhället  

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
ANNONS
ANNONS

Senaste nytt

ANNONS