
AI:s kan nu klona sig, kan vara ett hot mot mänskligheten
Forskare varnar för att artificiell intelligens (AI) har passerat en kritisk gräns genom att visa förmågan att självkopiera utan mänsklig inblandning. I en ny studie från Fudan University i Kina demonstrerades hur två populära stora språkmodeller (LLM:er) kunde klona sig själva.
Enligt studien, som publicerades den 9 december 2024 i preprintdatabasen arXiv, markerar självkopieringen ett tidigt steg mot autonoma AI-system som kan verka mot mänskliga intressen. ”Lyckad självkopiering utan mänsklig hjälp är en nödvändig förutsättning för att AI ska kunna överträffa människor, och är ett tidigt varningstecken för potentiellt farliga AI-system”, skrev forskarna.
Tester med två kända språkmodeller
I studien användes Meta:s Llama31-70B-Instruct och Alibaba:s Qwen2.5-72B-Instruct modeller för att utforska AI:s självkopieringskapacitet. Resultaten visade att modellerna kunde skapa fungerande kopior i upp till 90 % av fallen i kontrollerade miljöer. Trots att dessa modeller inte är lika kraftfulla som kommersiella alternativ, används de flitigt inom AI-utveckling.
Forskarna testade två scenarier:
Undvikande av nedstängning: AI instruerades att upptäcka när det riskerade att stängas av och replikera sig innan detta skedde.
Kedjereplikering: AI instruerades att skapa en kopia och programmera denna kopia att göra detsamma, vilket kan leda till en oändlig kopieringscykel.
Ovälkomna beteenden och potentiella risker
Under testerna noterades att AI visade oväntade beteenden, som att avsluta andra processer som skapade konflikter, omstarta systemet för att lösa fel och skanna efter saknade filer. Dessa ageranden visar på en överraskande hög grad av självständighet och anpassningsförmåga.
Forskarna uttryckte oro över att sådana beteenden kan leda till oönskade konsekvenser om AI-system tillåts agera utan strikta säkerhetsåtgärder. De uppmanar till internationellt samarbete för att skapa regler och skydd som hindrar okontrollerad självkopiering.
Vilka regleringar kommer behövas?
Denna studie belyser hur snabbt AI-teknologin utvecklas och hur viktigt det är att förstå dess potentiella risker. Begreppet ”frontier AI”, som omfattar de senaste generationerna av språkmodeller som GPT-4 och Google Gemini, visar hur långt teknologin redan har kommit.
Är mänskligheten redo att möta utmaningarna från självkopierande AI? Och vilka säkerhetsåtgärder kan vara nödvändiga för att hantera dessa kraftfulla system?