Svensk forskare: ”Vi kan alla vara döda om fem år”
2026 05 05
Om fem år kan vi alla vara döda.
Det uppger AI-forskaren Olle Häggström, professor i matematisk statistik vid Chalmers i Göteborg.
I en intervju med Kvartal varnar Häggström för en AI-apokalyps. Forskaren menar att den pågående utvecklingen av så kallad ”superintelligent AI” är livsfarlig.
I ett värsta scenario kan mänskligheten vara utplånad inom fem år, menar han.
Häggström framhåller att konsekvenserna kan bli mycket allvarliga, eftersom den nya tekniken i princip kan användas i vilken riktning som helst.
– Det har att göra med att AI-utvecklingen går i rasande fart. Det har rullat på i ungefär samma rasande takt, så till den grad att vi inom några år kan nå den punkt där vi själva inte är den mest kapabla arten på den här planeten, säger han till Kvartal.
Forskaren tillägger att i ett sådant scenario hänger allt på vad den mest kapabla arten – det vill säga AI – vill åstadkomma i världen.
”Inom några år”
Häggström definierar superintelligent AI som artificiell intelligens som är kognitivt överlägset människan.
Flera techjättar i USA håller på att utveckla tekniken.
– Det kan komma inom några få år. Anthropics vd Dario Amodei talar om att skapa en AI som är så kapabel att det motsvarar en nation av genier i ett datacenter, säger Häggström.
Forskaren menar att det därför är bråttom att utveckla en stark AI alignment – det vill säga teknik som säkerställer att artificiell intelligens agerar i linje med mänskliga värderingar, intentioner och mål.
Samtidigt befarar han att tidsspannet för att lyckas är alltför snäv.
Över 10 procents risk
Enligt forskaren finns det en tvåsiffrig risk – det vill säga 10 procent eller högre – att mänskligheten utplånas av superintelligent AI.
Hur det kommer att gå till kan han inte svara på, eftersom den inte går att förutse hur den superintelligenta AI-tekniken kommer att agera.
Häggström nämner trots det tre potentiella scenarier, som bygger på att AI manipulerar människor att utföra dess uppdrag i den fysiska världen.
Enligt forskaren kan det handla om människor som arbetar på börsen, i viruslaboratorier eller har ansvar för kärnvapen. Dessa skulle kunna hjälpa AI i dess strävan att kontrollera världen.
LÄS OCKSÅ: Ryska styrkor flyttas
Forskarvärlden är splittrad
Det finns flera andra AI-forskare som stödjer Olle Häggströms analys.
Samtidigt delar den snabba AI-utvecklingen forskarvärlden. Många experter tonar ner riskerna med den nya tekniken.
En av dem är Moa Johansson, docent i datavetenskap och AI vid Chalmers.
– Forskningen om “existentiella AI-risker” befinner sig däremot på ett spekulativt stadium: här finns inga etablerade, testbara mekanismer som kan jämföras med klimatvetenskapens grundläggande fysik, och prognoserna som görs bygger främst på ogrundade antaganden och osäkra extrapoleringar, skriver Johansson och fyra andra forskare vid Chalmers på Aftonbladet debatt.
LÄS OCKSÅ: UPPGIFTER: Skatt kan sänkas – gynnar 4 miljoner svenskar
Foto: Geralt
Text: Redaktionen


