Vi sparar data i cookies, genom att
använda våra tjänster godkänner du det.

Teslan, en SUV, fattade eld efter kraschen. Myndigheterna i USA utreder nu vilken roll bilens autopilotsystem hade i olyckan i Kalifornien.

Ny olycka väcker frågor om självkörande bilar

Frågorna kring säkerheten med "självkörande" bilar växer efter en dödsolycka med en Tesla i Kalifornien för drygt en vecka sedan. Utökade varningssystem i bilarna kan behövas, enligt en expert.

Enligt elbiltillverkaren visar bilens loggbok att föraren till bilen, en Tesla Model X, hade släppt ratten sex sekunder innan bilen skenade in i mitträcket på motorvägen i Kalifornien, krockade med två andra fordon och fattade eld. Trots att föraren hade tid på sig och obegränsad sikt, reagerade denna inte. Föraren dog.

Olyckan är den andra i år med en Tesla som utreds av amerikanska trafiksäkerhetsstyrelsen NTSB, som allt mer fokuserat på så kallad självkörande bilteknik efter att tidigare mest utrett flygolyckor, rapporterar The Wall Street Journal.

"Inte självkörande"

Efter en dödsolycka i Florida 2016 konstaterade myndigheten att begränsningar i bilens operativa system spelade en stor roll. Autopilotsystemet tillåter föraren att använda detta under långa sträckor tvärtemot företagets varningar, och systemet kan användas på vägar det inte är avsett för. Att föraren som en säkerhetsåtgärd bör hålla händerna på ratten är ingen garanti för att denna är uppmärksam på trafiken, enligt NTSB.

Tesla försvarar sig med att systemet inte ska ses som självkörande, utan en hjälp för föraren som alltid bör bibehålla uppmärksamheten, samt att antalet olyckor är relativt sett få.

Bara några dagar före den senaste olyckan blev en kvinna ihjälkörd av en "självkörande" Ubertaxi-bil, en Volvo XC90, i Arizona.

Människan riskfaktor

Människan i kombination med tekniken är en riskfaktor, säger Anna Pernestål-Brenden som forskar om hållbara transportssystem på KTH.

Vi människor är extremt dåliga på att övervaka maskiner som fungerar bra nästan hela tiden. Det har diskuterats om det är okej att göra som Tesla gör, att du måste ha händerna på ratten men sedan händer det inget om du överutnyttjar systemet, säger hon.

Det behövs fler varningssystem så länge en maskin inte klarar av att lösa en risksituation själv, anser hon. En annan lösning kan vara helt självkörande fordon.

I ett projekt som leds av Nobina prövar vi en självkörande buss just nu i Kista. Den kör väldigt långsamt, och stannar när den inte klarar av att lösa en situation, även om den har en säkerhetsförare ombord, säger Anna Pernestål-Brenden.

Det kan också vara lämpligt att skilja självkörande fordon från annan trafik. Människor bryter mot trafikregler, och det är en utmaning för robotbilarna.

Vi tror fortfarande att systemen kommer att bli betydligt säkrare än när människor kör i trafiken. Vi behöver testa dem i trafik, men det är viktigt att sätta säkerhetsaspekten först, och det gör vi i Sverige, säger Anna Pernestål-Brenden.