Microsoft hjälper självkörande bilar att känna till dess begränsningar

Lästid ikon 2 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Okunskap är lycka, och det är ofta de mest okunniga som fattar de säkraste besluten, utan att vara behäftade med vetskapen om att de kan ha fel.

I många situationer är allt bra och bra, men på den nuvarande nivån av utveckling av självkörande bilar kan det vara ganska farligt att en Tesla med säkerhet krascha in i en brandbil eller vit skåpbil (som båda hände).

Problemet är att självkörande bilar bara är smarta nog att köra bilar, men att de inte vet när de hamnar i en situation utanför deras nivå av självförtroende och förmåga.

Microsoft Research har arbetat med MIT för att hjälpa bilar att veta exakt när situationer är tvetydiga.

Som MIT news noterar kan en enskild situation ta emot många olika signaler, eftersom systemet uppfattar många situationer som identiska. Till exempel kan en autonom bil ha åkt längs med en stor bil många gånger utan att sakta ner och köra. Men i bara ett fall kryssar en ambulans, som ser exakt likadan ut för systemet, förbi. Den autonoma bilen kör inte och får en återkopplingssignal om att systemet vidtog en oacceptabel åtgärd. Eftersom den ovanliga omständigheten är sällsynt kan bilar lära sig att ignorera dem, när de fortfarande är viktiga trots att de är sällsynta.

Det nya systemet, som Microsoft bidrog till, kommer att känna igen dessa sällsynta system med konfliktfylld träning och kan lära sig i en situation där det till exempel kan ha presterat acceptabelt 90 procent av tiden, situationen är fortfarande tillräckligt tvetydig för att förtjäna en "blind" fläck."

"När systemet distribueras i den verkliga världen kan det använda den här inlärda modellen för att agera mer försiktigt och intelligent. Om den inlärda modellen förutsäger att ett tillstånd är en blind fläck med hög sannolikhet, kan systemet fråga en människa om den acceptabla handlingen, vilket möjliggör säkrare utförande”, säger Ramya Ramakrishnan, doktorand vid Datavetenskap och Artificiell Intelligens Laboratory.

Läs mycket mer detaljerat på MIT News här.

Mer om ämnena: autonoma bilar, microsoft research

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *