Förutseende och framsynthet har alltid varit viktigt, men saken ställs på sin spets av dagens skenande AI-utveckling. Trial-and-error har hittills varit en ovärderlig del av teknisk utveckling, för till och med när en uppfinnare misslyckas så kapitalt att hen omkommer i en kraschlandning eller explosion, finns alltid andra som kan ta vid och rätta till designen.
När det gäller det slags övermänskligt kapabla AI som det ledande AI-företaget Anthropics vd Dario Amodei syftar på i sitt tal om att inom ett par år bygga en AI med kompetens motsvarande ”en nation av genier i ett datacenter”, kan vi inte längre lita på denna mekanism, för om AI:n släpps innan vi har säkerställt att dess mål och värderingar är i linje med våra, så är det inte säkert att vi får en andra chans. Trial-and-error räcker inte längre; vi behöver tänka efter före.
Trots att utvecklingskurvorna i dag pekar nästan lodrätt uppåt finns det i AI-debatten, och inte minst bland AI-forskarna själva, grupperingar som ängsligt undviker att tala om vad AI-system inom några år kan vara kapabla till och som insisterar på att enbart förhålla sig till förmågorna hos dagens AI.
Man bör undvika spekulation, heter det ibland, men vi bör så klart inse att allt tal om framtiden, i avsaknad av kristallkulor, är spekulativt. Om vi alltför renlärigt undviker spekulation, tappar vi förmågan att förbereda oss för framtiden.
Till och med i den ledande vetenskapliga tidskriften Nature hette det i rubriken på en ledartext 2023 att vi bör ”sluta tala om morgondagens AI-undergång när AI skapar risker redan i dag”. Detta är en falsk motsättning, och de forskare som sysslar med existentiella respektive mer jordnära AI-risker har allt att vinna på att samarbeta snarare än att se varandra som konkurrenter om resurser och uppmärksamhet.
Vad beror då denna ängslighet inför att tala om morgondagens AI på, när den av utvecklingskurvorna att döma kommer att vara mycket kraftfullare än dagens? Det finns säkert många förklaringar, men jag tror att orsaken åtminstone till en del står att finna i AI-forskningens historia. Från dess begynnelse på 1950-talet fram till i dag har denna forskning delvis gått i vågor. Två svackor, som varade 1974–1980 och 1987–1993, blev så djupa att de numera benämns första och andra AI-vintern.
I efterhand ansågs nedgångsperioderna bero på att man tidigare talat alltför vidlyftigt om framtida framgångar, vilket skapade förväntningar som inte gick att leva upp till, och resurserna ströps. Därmed uppstod ett slags tabu mot att ta ut forskningsframsteg i förskott genom att spekulera om framtida AI.
Än i dag sitter minnet av AI-vintrarna kvar i väggarna i många akademiska forskningsmiljöer. I vissa fall stannar man inte ens vid att undvika tal om framtida framsteg, utan förminskar även dagens AI.
Ofta talas om hur AI-systemen omöjligen kan ha någon verklig intelligens, eftersom deras neurala nätverk är uppbyggda av enkla och själlösa matematiska operationer – ett absurt argument eftersom även den mänskliga hjärnan består av själlösa komponenter som atomer och elementarpartiklar.
En liknande diskurs uppstod när Anthropic nyligen kungjorde sin nya AI-modell Mythos, som är så kapabel inom cyberhacking att den ansågs för farlig att släppa till allmänheten. Anthropic valde därför att låta endast ett litet antal betrodda techföretag använda Mythos för att identifiera och täppa till säkerhetsluckor.
En rad debattörer har försökt tona ned Mythos förmågor och även fört fram konstlade teorier om att Anthropic i maskopi med dessa techföretag har hittat på alltsammans i något slags PR-syfte.
Ett exempel finner vi i AI-forskaren Devdatt Dubhashis inlägg om Mythos i GP den 25/4, där läsaren kan pricka av en rad av ovanstående tankefigurer som på en bingobricka, inklusive bagatellisering, konspirationsteorier och Natures konstruerade motsättning mellan dagens och morgondagens risker.
Han avvisar alla diskussioner om existentiell AI-risk som ”ytterst spekulativa”, men ignorerar att hans egen implicita prognos – att AI:s utvecklingskurvor planar ut innan AI blir så kraftfull att den kan utmana oss om världsherraväldet – just är en spekulation. Någon grund för denna spekulation presenteras inte, och i takt med att nya AI-genombrott kommer månad efter månad framstår den alltmer som gripen ur luften.
Om skribenten
Olle Häggström är professor i matematisk statistik vid Chalmers. Hans forskning innefattar sannolikhetsteori men även futurologi, existentiell risk, AI-säkerhet.





