Lanseringen av Mythos har eldat på debatten om AI-risker ytterligare. I synnerhet har det i många svenska medier förekommit påståenden om att AI-system blir så kraftfulla att de kan ta kontroll över människor och i förlängningen utrota hela mänskligheten. Mythos-systemet har framställts som ytterligare bevis för en sådan utveckling, där AI-system blir farligt okontrollerbara, skriver debattören. Bild: Patrick Sison /AP/TT

Självklart finns det risker med AI – men utrota mänskligheten kan den inte

Återigen går svallvågorna höga i diskussionen om AI. När Anthropic släppte sin nya modell Claude Mythos preview kom domedagsprofetiorna som ett brev på posten.
Man talar om att AI-modellens exceptionella förmåga att hitta säkerhetsluckor i mjukvarusystem är ett bevis för att AI skulle kunna utrota mänskligheten.
Men sådana långtgående slutsatser är starkt vilseledande. Vi borde fokusera på att skydda oss på verkliga risker som AI innebär, inte spekulativa förutsägelser om existentiella risker, skriver Devdatt Dubhashi.

Det här är en debattartikel. Åsikter och idéer som framförs är skribenternas egna. Vill du svara eller har du synpunkter på debattartikeln? Mejla till: debatt@gp.se

ANNONS

Enligt Anthropic har den nya AI-modellen redan hittat tusentals allvarliga sårbarheter, inklusive några i populära operativsystem och webbläsare. Den släpptes inte till allmänheten utan endast till en utvald grupp cybersäkerhetsföretag som förväntas använda modellen för att hitta och åtgärda sårbarheter i sin mjukvara.

Lanseringen av Mythos har eldat på debatten om AI-risker ytterligare. I synnerhet har det i många svenska medier förekommit påståenden om att AI-system blir så kraftfulla att de kan ta kontroll över människor och i förlängningen utrota hela mänskligheten. Mythos-systemet har framställts som ytterligare bevis för en sådan utveckling, där AI-system blir farligt okontrollerbara.

Devdatt Dubhashi, Datavetenskap Bild: J-O Yxell

Det är viktigt att noggrant granska bevisen bakom sådana påståenden. Även om Mythos innebär allvarliga säkerhetsrisker bör man inte överdriva och hävda att det är bevis för att AI håller på att ta kontroll över mänskligheten.

ANNONS

Överdriver riskerna

Även om det finns tydliga säkerhetsrisker med att låta AI-agenter baserade på stora språkmodeller (LLMs) agera fritt, måste man vara medveten om att det också finns tydliga vinstincitament för Anthropic att överdriva sådana påståenden.

Storbritanniens National Cyber Security Centre gjorde nyligen en detaljerad utvärdering av Mythos och andra AI-modeller. Även om de fann att Mythos innebär framsteg jämfört med tidigare modeller när det gäller cyberattackförmåga, hade modellerna begränsningar och ett väl utformat säkerhetssystem kunde stå emot dessa attacker. Dessutom kan AI-modeller användas för att stärka cyberförsvaret.

Tidigare påståenden, såsom att AI-system uppvisar vilseledande beteende för självbevarelse, bygger också på tveksamma grunder. Detaljerna i de faktiska experimenten är dolda djupt inne i tekniska artiklar och visar sig vara betydligt mer konstruerade och begränsade. Påståenden om att AI-system utgör en ny art som kommer att ersätta mänskligheten är ytterst spekulativa och starkt vilseledande.

Det går inte att nog understryka vikten av att fokusera på dessa konkreta och aktuella risker med AI i stället för att ägna sig åt långtgående spekulationer om ”existentiella risker”

Samtidigt har vi bevittnat verkliga och aktuella risker med AI-system, till exempel deras användning i autonoma vapensystem i krig och inom sociala medier.

AI-system har använts i stor utsträckning av den amerikanska militären. Sedan 2024 har mjukvarusystemet Maven, utvecklat av det hemlighetsfulla företaget Palantir Technologies, använts av Pentagon för att identifiera mål och har stöttats av Anthropics Claude-modell som en del av ett kontrakt värt 200 miljoner dollar med försvarsdepartementet.

ANNONS

Washington Post rapporterar att ”när planeringen för en möjlig attack mot Iran pågick, föreslog Maven, drivet av Claude, hundratals mål, angav exakta koordinater och prioriterade dessa mål efter vikt.” Med tanke på att en iransk grundskola träffades under krigets första dag, verkar det ganska sannolikt att Claude spelade en roll i valet av detta mål och därmed i döden av mer än 150 unga flickor – ett mycket allvarligt krigsbrott.

Några veckor tidigare kom två domar efter varandra där sociala medieföretag fälldes: en jury i Los Angeles gav en ung kvinna rätt i hennes stämning mot Meta och YouTube om hennes barndomsberoende av sociala medier, och en jury i New Mexico fann Meta ansvarigt för hur dess plattformar utsatte barn för fara och exponerade dem för sexuellt explicit material och kontakt med sexuella rovdjur. Dessa fall belyser de skadliga effekterna av sociala medier som drivs av AI-teknik, särskilt för unga och sårbara personer.

Ansvarsfullt förhållningssätt

Det går inte att nog understryka vikten av att fokusera på dessa konkreta och aktuella risker med AI i stället för att ägna sig åt långtgående spekulationer om ”existentiella risker”. Effektiva regleringsramverk behövs omgående för att hålla jämna steg med den snabbt utvecklande tekniken. Det är också viktigt att förmedla korrekt information till allmänheten så att människor kan vara medvetna om verkliga risker utan att skrämmas av felaktiga och vilseledande spekulationer. Detta är grunden för ett ansvarsfullt förhållningssätt som gör det möjligt att dra nytta av AI-teknikens stora potential för samhället i stort, samtidigt som vi skyddar oss mot verkliga risker.

ANNONS

Devdatt Dubhashi, professor data science och AI, Chalmers och Göteborgs universitet

ANNONS