Microsoft pomaga samochodom autonomicznym poznać ich ograniczenia

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Ignorancja jest błogością i często najbardziej ignoranci podejmują najpewniejsze decyzje, nie będąc obarczeni świadomością, że mogą się mylić.

W wielu sytuacjach wszystko jest w porządku i dobrze, ale na obecnym poziomie rozwoju autonomicznego samochodu, gdy Tesla pewnie zderzyła się z wozem strażackim lub białą furgonetką (które miały miejsce) może być raczej niebezpieczne.

Problem polega na tym, że autonomiczne samochody są wystarczająco inteligentne, aby jeździć samochodami, ale nie wiedzieć, kiedy wchodzą w sytuację wykraczającą poza ich poziom pewności siebie i możliwości.

Microsoft Research współpracował z MIT, aby pomóc samochodom dokładnie wiedzieć, kiedy sytuacje są niejednoznaczne.

Jak zauważa serwis MIT, pojedyncza sytuacja może odbierać wiele różnych sygnałów, ponieważ system postrzega wiele sytuacji jako identycznych. Na przykład samochód autonomiczny mógł wielokrotnie przejeżdżać obok dużego samochodu, nie zwalniając i nie zjeżdżając. Ale tylko w jednym przypadku przejeżdża karetka, która wydaje się dokładnie taka sama dla systemu. Autonomiczne auto nie zatrzymuje się i otrzymuje sygnał zwrotny, że system podjął niedopuszczalne działanie. Ponieważ niezwykła okoliczność jest rzadka, samochody mogą nauczyć się je ignorować, gdy nadal są ważne, mimo że są rzadkie.

Nowy system, do którego przyczynił się Microsoft, rozpozna te rzadkie systemy ze sprzecznym treningiem i może uczyć się w sytuacji, w której mógł na przykład działać w zadowalający sposób przez 90 procent czasu, sytuacja jest nadal na tyle niejednoznaczna, że ​​zasługuje na „ślepe miejsce."

„Kiedy system zostanie wdrożony w rzeczywistym świecie, może wykorzystać ten wyuczony model, aby działać ostrożniej i inteligentniej. Jeśli wyuczony model przewiduje, że stan jest martwym punktem z dużym prawdopodobieństwem, system może zapytać człowieka o akceptowalne działanie, umożliwiając bezpieczniejsze wykonanie” – powiedziała Ramya Ramakrishnan, absolwentka Laboratorium Informatyki i Sztucznej Inteligencji.

Przeczytaj o wiele więcej szczegółów na MIT News tutaj.

Więcej na tematy: samochody autonomiczne, badania Microsoft

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *