Stora språkmodeller som GPT-4 har visat imponerande resultat inom textgeneration. Men det finns inte belägg för att därifrån dra slutsatsen att man enbart genom att pumpa in ytterligare mer data och beräkningskraft skulle skapa en autonom agent som överträffar människor inom alla områden, inklusive att ta kontroll över det mänskliga samhället och utrota oss, skriver debattörerna.
Stora språkmodeller som GPT-4 har visat imponerande resultat inom textgeneration. Men det finns inte belägg för att därifrån dra slutsatsen att man enbart genom att pumpa in ytterligare mer data och beräkningskraft skulle skapa en autonom agent som överträffar människor inom alla områden, inklusive att ta kontroll över det mänskliga samhället och utrota oss, skriver debattörerna. Bild: Richard Drew

Fokus måste ligga på riskerna med AI här och nu

Brevet som kräver att AI-utvecklingen tar ett halvårs paus, tar upp flera reella risker med teknologin, som spridning av desinformation och effekter på arbetsmarknaden. Tyvärr blandas detta upp med rena spekulationer om framtida AI system som skulle utgöra en katastrofal risk för mänsklighetens överlevnad, skriver fem AI-forskare.

ANNONS
|

Nyligen publicerade amerikanska Future of Life Institute ett öppet brev som förespråkar en sex månader lång paus i utvecklingen av AI-modeller ”mer kraftfulla” än GPT-4, modellen som driver den populära chatbotten ChatGPT. Bland underskrifterna finns över 1000 namn: företagsledare, forskare och offentliga personer.

Brevet som kräver att AI-utvecklingen tar ett halvårs paus, tar upp flera reella risker med teknologin, som spridning av desinformation och effekter på arbetsmarknaden. Tyvärr blandas detta upp med rena spekulationer om framtida AI system som skulle utgöra en katastrofal risk för mänsklighetens överlevnad.

Imponerande resultat

Stora språkmodeller som GPT-4 har visat imponerande resultat inom textgeneration. Men det finns inte belägg för att därifrån dra slutsatsen att man enbart genom att pumpa in ytterligare mer data och beräkningskraft skulle skapa en autonom agent som överträffar människor inom alla områden, inklusive att ta kontroll över det mänskliga samhället och utrota oss. Att lägga fokus på ”existentiell risk” drar uppmärksamhet från de risker som finns här och nu, vilket vi skrivit om tidigare .

ANNONS

Det som snarare krävs är en öppen diskussion och samarbete mellan akademi, myndigheter och samhälle, men ”AI-hypen” i det öppna brevet kan i stället leda till att storföretagen ytterligare begränsar möjligheterna till att vetenskapligt granska teknologin. Att kräva en sex månaders paus på AI-utveckling är både missriktat och svårt att genomföra. Sex månader är för kort tid för att ta fram robust lagstiftning som minimerar de viktigaste riskerna utan att strypa innovation – här krävs ett mer långsiktigt projekt.

I de flesta fall är detta en PR-manöver för att avvärja regleringar, vilket berkäftats av vittnesmål från visselblåsare

Den nya teknologin, som är central i vår IT-infraskruktur kan inte lämnas enbart i händerna på ett fåtal stora techföretag (BigTech) att exploatera för maximal vinst. Vi har idag en situation där det råder mer eller mindre monopol. Detta har negativa konsekvenser för samhället: det påverkar demokratin negativt och kväver bredden inom innovation. Kraftfull AI-teknik kan ytterligare befästa detta.

BigTech anser sig kunna reglera sig själva, och vill ofta måla upp en bild av en socialt ansvarsfull bransch som agerar med omsorg för allmän välfärd. I de flesta fall är detta en PR-manöver för att avvärja regleringar, vilket berkäftats av vittnesmål från visselblåsare.

Konsumentpåverkan kan ibland fungera, men sådana fall hör till ovanligheterna. Lagstiftning och regleringar är det enda effektiva medel som demokratiska samhällen har för att med säkerhet kunna skydda sig . I både USA och Europa börjar nu frågan om BigTech-dominansen lyftas. President Biden stödjer en växande rörelse för minskad monopolmakt och ökad konkurrens. I Europa drivs frågan av Europakommissionens vice ordförande, danska liberalen Margrete Vestanger. Kommissionen driver också införandet av EU’s AI-akt: ett strikt regelverk för hur AI teknologi ska regleras och vilken insyn som krävs för att säkerställa säkra tillämpningar och samhällsnytta.

ANNONS

Enormt koldioxidavtryck

AI-teknologi har redan haft positiv påverkan inom till exempel medicin och hälsovård, energi och tillverkningsindustri. Det finns dock problem med AI-utvecklingen som det talats relativt lite om, det enorma kolidioxid- och energiavtrycket. För att träna en modell som ChatGPT går det åt enorma mängder energi och datorkraft vilket inte är hållbart med tanke på klimatförändringarna. Utöver lagstiftning behöver vi forskning för att i stället bygga AI-modeller som presterar bra tränade på mindre datamängder, med färre parametrar och med mindre datorresurser.

Devdatt Dubhashi, Professor, Division of Data Science and AI, Chalmers

Moa Johansson, Docent, Division of Data Science and AI, Chalmers

Shalom Lappin, FBA, MAE, Professor of Natural Language Processing, Queen Mary University of London and Senior Researcher in Computational Linguistics University of Gothenburg

Gerardo Schneider, Professor, Computing Science Division, Gothenburg University.

Moshe Y. Vardi, Professor, Rice University, USA; Hon. Doctor University of Gothenburg (2021)

comments

Kommentarer

Vad tycker du?

Här nedan kan du kommentera artikeln via tjänsten Ifrågasätt. Märk väl att du behöver skapa ett konto och logga in först. Tänk på att hålla god ton och att inte byta ämne. Visa respekt för andra skribenter och berörda personer i artikeln. Inlägg som bedöms som olämpliga kommer att tas bort och GP förbehåller sig rätten att använda kommentarer i redaktionellt innehåll.

ANNONS