Microsoft hjælper selvkørende biler med at kende deres begrænsninger

Ikon for læsetid 2 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Uvidenhed er lyksalighed, og det er ofte de mest uvidende, der træffer de sikreste beslutninger, uden at være behæftet med viden om, at de kan tage fejl.

I mange situationer er dette alt sammen fint og godt, men på det nuværende niveau af selvkørende biludvikling kan det være temmelig farligt at få en Tesla til at støde ind i en brandbil eller hvid varevogn (som begge skete).

Problemet er, at selvkørende biler lige er smarte nok til at køre biler, men ikke til at vide, hvornår de kommer ind i en situation, der ligger uden for deres selvtillid og kapacitet.

Microsoft Research har arbejdet sammen med MIT for at hjælpe biler med at vide præcis, hvornår situationer er tvetydige.

Som MIT nyheder bemærker, kan en enkelt situation modtage mange forskellige signaler, fordi systemet opfatter mange situationer som identiske. For eksempel kan en selvkørende bil have kørt sammen med en stor bil mange gange uden at sætte farten ned og trække. Men kun i et enkelt tilfælde krydser en ambulance, som ser nøjagtigt ud på samme måde, forbi. Den autonome bil stopper ikke og modtager et feedbacksignal om, at systemet har foretaget en uacceptabel handling. Fordi den usædvanlige omstændighed er sjælden, kan biler lære at ignorere dem, når de stadig er vigtige på trods af at de er sjældne.

Det nye system, som Microsoft har bidraget til, vil genkende disse sjældne systemer med konflikttræning og kan lære i en situation, hvor det for eksempel kan have præsteret acceptabelt 90 procent af tiden, er situationen stadig tvetydig nok til at fortjene en "blind" få øje på."

"Når systemet implementeres i den virkelige verden, kan det bruge denne lærte model til at handle mere forsigtigt og intelligent. Hvis den lærte model forudsiger, at en tilstand er en blind plet med høj sandsynlighed, kan systemet forespørge et menneske om den acceptable handling, hvilket giver mulighed for sikrere udførelse,” sagde Ramya Ramakrishnan, en kandidatstuderende i Computer Science and Artificial Intelligence Laboratory.

Læs meget mere detaljeret på MIT News her.

Mere om emnerne: autonome biler, Microsoft-forskning

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *