Vi sparar data i cookies, genom att använda våra tjänster godkänner du det.

Riktig journalistik gör skillnad.Nyheter med närvärde

    Victoria Greve. Bild: Björn Larsson Rosvall / Exponera

    Den här artikeln ingår för dig som är kund.

    Min bil räddar bara rika och smala

    Victoria Greve gör det moraliska testet som ska lära självkörande bilar att värdera människoliv.

    Det här är en krönika. Ställningstaganden är skribentens egna.

    Hur mycket är ett liv värt? Om du är ute och kör och plötsligt förlorar kontrollen över bilen och tvingas välja mellan att köra på en gammal man eller gira och träffa ett litet barn, vem skulle du ta? Om du tvingas välja mellan en hjärtläkare och en kriminell?

    Du läser nu en av dina fria artiklar på GP.se

    Den och liknande frågor har nu besvarats över fyrtio miljoner gånger av människor från 233 olika länder i det amerikanska universitetet MIT:s stora webbaserade studie Moral machine. Det är en plattform för att samla ihop mänskliga perspektiv på maskinell intelligens som kan komma till hjälp för att programmera förarlösa bilar i framtiden. Resultatet publicerades i den vetenskapliga tidskriften Nature för ett par veckor sedan.

    Egentligen är det en variant på det klassiska moraliska dilemmat spårvagnsproblemet som konstruerades av Philippa Foot. En skenande spårvagn rusar fram på ett spår. Längre fram ligger fem personer fastbundna på spåret. Du kan växla över spåret, men också där ligger en ensam person fastbunden. Valet står alltså mellan att göra ingenting och döda de fem personerna på huvudspåret eller aktivt växla om och döda en person. Vad gör du?

    Tappar du kontroll över din bil måste du fatta beslut om liv och död på ett ögonblick och hinner förmodligen inte göra några djupare avvägningar. Men den självkörande bilens val måste programmeras av någon.

    LÄS MER: Ett år efter metoo är det dags för självrannsakan

    Resultaten från Moral machine är ganska krassa och skiljde sig till viss del mellan olika länder och regioner. Överviktiga människor offrades i 20 procent fler fall än vältränade och hemlösa löpte 40 procent högre risk i moralsimulatorn än högstatusmänniskor. Människor från länder med starka institutioner som Finland och Japan tenderade att "straffa" folk som bröt mot lagen genom att till exempel gå mot röd gubbe. Att rädda så många liv som möjligt, föredra unga framför gamla och människor framför husdjur tycks vara en genomgående värdering för mänskligheten.

    Men inte i mitt fall. När jag gjorde testet visade det sig att jag favoriserat rika, laglydiga och vältränade män. Och hundar. Principerna jag valde var att bilen alltid skulle skydda sina passagerare och alltid agera förutsägbart genom att köra rakt fram oavsett vem eller vad som gick framför den – och vilka som satt i bilen. Då råkade husdjur och rika klara sig bättre. Min vän som gjorde samma test offrade konsekvent passagerarna eftersom de från början gjort en riskbedömning genom att välja att sätta sig i bilen från början.

    LÄS MER: Ortens poet ett motgift när språket brutaliseras

    Svaren är långt ifrån enkla. Och kanske ska man inte heller dra för stora växlar på ett konstruerat problem. Men i framtiden är det inte bara självkörande bilar som kommer att ställas ställas inför svåra val. Vårdrobotar i sjukvården och drönare som används av militären är andra exempel där algoritmer kan komma att styra över mänskligt liv och död. Och principerna bakom de besluten är värda att diskutera av många. Om jag får programmera kommer iallafall alla hundar att klara sig.

    Här kan du själv göra testet.