Naomi Abramowicz Bild: Anna Tärnhuvud

Naomi Abramowicz: Inte ens statsministern förstår sig på AI

Det är farligt att lita blint på AI-verktyg. Svenska toppolitiker borde veta bättre.

Det här är en åsiktstext från GP Ledare. Ledarredaktionen är oberoende liberal.

ANNONS

Statsminister Ulf Kristersson (M) och vice statsminister Ebba Busch (KD) har verkligen lyckats lyfta frågan om artificiell intelligens de senaste veckorna. Men kanske inte riktigt som de hade tänkt. Båda har nämligen blivit kraftigt kritiserade för hur de använder AI-verktyg.

I en intervju om AI och digitalisering berättade Kristersson om hur han nyttjar AI-verktyg i sitt arbete. ”Jag använder det själv rätt ofta. Om inte annat för en ’second opinion’. ’Vad har andra gjort?’ och ’ska man tänka precis tvärtom?’. Den typen av frågor”, sade Kristersson (Dagens Industri 3/8).

Busch hamnade i blåsväder när hon använde ett fabricerat citat från Aftonbladetkrönikören Elina Pahnke i sitt Almedalstal. Det så kallade citatet hade tagits fram med hjälp av en sökning i ett AI-verktyg. Men det visade sig att chatbotten hade ”hallucinerat” och hittat på ett falskt citat av Pahnke.

ANNONS

Artificiell intelligens kan vara ett kraftfullt verktyg, när det används på rätt sätt. Det kommer att bli ett allt vanligare inslag på svenska arbetsplatser, vare sig vi vill eller inte. Problemet är att varken statsministern eller vice statsministern verkar ha förstått hur den här typen av AI-tjänster fungerar eller hur de ska nyttjas.

AI-verktyg är inte söktjänster, de är sannolikhetsmaskiner. Generativ AI, som exempelvis ChatGPT, har tränats för att bearbeta oerhört stora mängder text. Den förutser sedan vad som har högst sannolikhet att komma efter något annat.

Exempelvis gissar den vilket ord som följer på ett annat i en mening. Men att något är sannolikt behöver inte nödvändigtvis betyda att det är sant, eller ens relevant. Därför är det ett misstag att vänta sig felfria sökresultat eller banbrytande ”second opinions” från de vanligaste AI-verktygen.

Men det räcker inte bara med att förstå hur AI fungerar, fler behöver bli medvetna om riskerna. Det gäller särskilt alla som tar hjälp av AI i sitt arbete. Det är inte bara Busch och Pahnke som har upplevt konsekvenserna av hallucinerande chattbottar.

Det har förekommit flera fall, senast i Australien, där advokater har använt sig av AI-genererade fall i domstol (GP 18/8). Senare har det visat sig att de har varit fullkomliga falsarier, med påhittade citat och domar.

ANNONS

Experter på artificiell intelligens varnar för att AI-verktygens hallucinationer sannolikt kommer att fortsätta, och att de kan bli ännu värre (New Scientist 9/5).[3] Det finns även andra problem, som att AI ibland utgår från opålitliga källor eller använder daterad information.

Oavsett i vilket syfte man använder den nya tekniken ska man aldrig lita blint på en chattbott. Precis som vid all annan informationssökning krävs källkritik.

Att se AI-verktygens brister betyder inte att man är en teknikpessimist som längtar tillbaka till faxmaskinens dagar. Det handlar om att förstå de nya verktygens begränsningar och användningsområden. Det är något som både Kristersson och Busch, och deras staber, bör begrunda innan de skriver nästa prompt till ChatGPT.

ANNONS