Öka mängden epidemiologisk data som delas internationellt. Verka för ett globalt stopp för så kallat  “gain of function research”, det vill säga forskning som syftar till att modifiera virus till att bli smittsammare eller på annat sätt farligare, skriver debattörerna.
Öka mängden epidemiologisk data som delas internationellt. Verka för ett globalt stopp för så kallat “gain of function research”, det vill säga forskning som syftar till att modifiera virus till att bli smittsammare eller på annat sätt farligare, skriver debattörerna. Bild: Frank Augstein

Vi är inte rustade att möta de extrema risker vi står inför

De senaste årens dramatiska händelser, med en global pandemi följt av invasionen av Ukraina, har åskådliggjort det moderna samhällets utsatthet. Men det finns mycket vi kan göra för att skydda oss mot framtida risker, skriver Max Tegmark, Olle Häggström och Anders Sandberg.

Det här är en debattartikel. Åsikter och idéer som framförs är skribenternas egna. Vill du svara eller har du synpunkter på debattartikeln? Mejla till: debatt@gp.se

ANNONS
|

Enligt WHO har över 600 miljoner människor insjuknat i Covid-19 med 6,4 miljoner dödsfall till följd. Men det kunde ha varit ännu värre - forskare varnar för ännu värre framtida pandemier. Särskilt finns en risk för syntetiskt framställda virus som har hög smittsamhet och dödlighet.

Utöver det lidande Ukraina-invasionen orsakat har den aktualiserat risker kopplade till kärnvapen. I sammanhanget bör erinras att flera incidenter under kalla kriget kunde ha lett till ett kärnvapenkrig och i mars råkade kärnvapenstaten Indien skjuta en missil möjlig att bestycka med kärnvapen in i Pakistan, som också har kärnvapen. I ett upptrappat läge kan liknande misstag bli ödesdigra.

ANNONS

Extrema effekter

Pandemier och kärnvapenkrig är dock tyvärr inte de enda katastrofrisker vi står inför. Att klimatförändringar medför risker är ingen nyhet. Experter har länge varnat för att “tipping points” - stora irreversibla förändringar i klimatsystemet - kan leda till klimatförändringar med extrema effekter.

Rapporten Future Proof av bland andra Oxford-forskaren Toby Ord lyfter vid sidan av pandemier, klimatförändringar och kärnvapenkrig också risker från artificiell intelligens som ett område där vår beredskap är för låg. Utvecklingen går framåt och många AI-experter bedömer att artificiell generell intelligens (AGI) kan komma att skapas under kommande årtionden. Det skulle kunna innebära fantastiska framsteg, men även risker. Vad händer om AGI-system inte delar våra mål, eller om människor använder dem för odemokratiska syften?

Motsvarande utredning

Rapporten utvärderar den brittiska regeringens beredskap för dessa katastrofrisker och ger rekommendationer för hur den kan förbättras. Vi efterfrågar motsvarande utredning i Sverige och ger följande rekommendationer till den svenska regeringen. Notera att rekommendationerna är preliminära i avvaktan på den rapport vi efterfrågar och bygger på de rekommendationer som lämnas i Future Proof.

När det gäller biosäkerhet behövs följande åtgärder:

– Öka mängden epidemiologisk data som delas internationellt.

– Öka stödet till FN:s konvention mot biologiska vapen.

– Stärk säkerheten hos företag som säljer DNA.

ANNONS

– Öka stödet till forskning inom biosäkerhet och läkemedelsutveckling.

– Etablera övervakande organ för biosäkerhet vid forskningsinstitut och lärosäten.

– Verka för ett globalt stopp för så kallat “gain of function research”, det vill säga forskning som syftar till att modifiera virus till att bli smittsammare eller på annat sätt farligare

När det gäller kärnvapen så rekommenderar vi att regeringen:

– Återställer Sveriges roll som en av ledarna för kärnvapennedrustning och undertecknar FN:s förbudsavtal mot kärnvapen.

– Leder Stockholmsinitiativet för kärnvapennedrustning i en process för mätbar riskminskning och verkar för att fler länder ansluter sig.

– Verkar för stärkta säkerhetsrutiner bland kärnvapenstaterna samt globala system för övervakning och transparens av anrikat uran och kärnteknik.

– Stödjer forskning och arbete för att förbereda samhället på följderna av ett kärnvapenkrig.

Förbättra kapaciteten att förutse utvecklingen inom AI-forskning och utred risker och möjligheter relaterade till AI

När det gäller riskerna med Artificiell intelligens:

– Öka kompetensen om AI och risker relaterade till AGI inom beslutsfattande organ.

– Förbättra kapaciteten att förutse utvecklingen inom AI-forskning och utred risker och möjligheter relaterade till AI.

– Etablera etiska riktlinjer och regler för hur AI får och inte får användas.

– Förbjud robotar som själva beslutar vem som ska dödas.

– Motverka att kärnvapenstater integrerar AI i kärnvapenstyrning.

Och slutligen, när det gäller klimatförändringar:

ANNONS

– Stöd forskning om växthus- och feedbackeffekter, samt konsekvenser av uppvärmning om 5°C eller mer.

– Främja forskning och arbete inom modellering som preciserar våra osäkerheter om klimatkänslighet.

– Öka stödet till utveckling av ren och förnyelsebar energi.

Åtgärda bristerna

Det behövs också att man utreder långsiktiga katastrofala risker, inklusive risker kopplade till AGI, extrema klimatförändringar, kärnvapenkrig och katastrofala biologiska risker. Men också att man åtgärdar bristerna i krisberedskap som påtalats i statliga utredningar och myndighetsrapporter. Utöver detta behövs finansiering av mer forskning för stärkt katastrofberedskap lokalt och globalt. Man behöver också verka för ökade resurser och uppmärksamhet åt extrema risker inom internationella organ.

Covid-19 och kriget i Ukraina har påmint oss om att vårt samhälle är skört och vikten av beredskap. Vi är alla överens om att vi måste vara bättre förberedda för nästa pandemi eller geopolitiska konflikt. Men det vore ett misstag att fokusera bara på dessa risker. Beredskapen bör höjas mot ett bredare spektrum av extrema risker, och det bör ske nu.

Max Tegmark, professor i fysik vid MIT och medgrundare av Future of Life Institute

Olle Häggström, professor i matematisk statistik vid Chalmers och forskare vid Institutet för Framtidsstudier

Anders Sandberg, Senior research fellow vid Future of Humanity Institute, University of Oxford

ANNONS
ANNONS