Microsoft допомагає самокерованим автомобілям знати свої обмеження

Значок часу читання 2 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Невігластво — це блаженство, і найчастіше саме неосвічені люди приймають найвірніші рішення, не обтяжені знанням про те, що вони можуть бути неправильними.

У багатьох ситуаціях це все добре і добре, але на нинішньому рівні розвитку безпілотних автомобілів впевнено врізатися Tesla в пожежну машину або білий фургон (і те й інше сталося) може бути досить небезпечним.

Проблема в тому, що самокеровані автомобілі достатньо розумні, щоб керувати автомобілями, але не знають, коли вони потрапляють у ситуацію, що виходить за межі свого рівня впевненості та можливостей.

Microsoft Research співпрацює з MIT, щоб допомогти автомобілям точно знати, коли ситуація неоднозначна.

Як зазначають новини MIT, одна ситуація може отримувати багато різних сигналів, оскільки система сприймає багато ситуацій як ідентичні. Наприклад, автономний автомобіль міг багато разів їхати поруч із великим автомобілем, не сповільнюючи і не зупиняючись. Але лише в одному випадку повз проїжджає швидка допомога, яка виглядає так само, як система. Автономний автомобіль не зупиняється і отримує сигнал зворотного зв’язку, що система вчинила неприйнятні дії. Оскільки незвичайна обставина полягає в тому, що рідкісні автомобілі можуть навчитися ігнорувати їх, коли вони все ще важливі, незважаючи на рідкість.

Нова система, до якої внесла Microsoft, розпізнає ці рідкісні системи з конфліктним навчанням і може навчатися в ситуації, коли вона, наприклад, працювала прийнятно 90 відсотків часу, ситуація все ще досить неоднозначна, щоб заслуговувати «сліпого місце.”

«Коли система розгорнута в реальному світі, вона може використовувати цю засвоєну модель, щоб діяти більш обережно та розумно. Якщо вивчена модель передбачає, що стан буде сліпою зоною з високою ймовірністю, система може запитати людину щодо прийнятної дії, що дозволить безпечніше виконувати», — сказав Рамія Рамакрішнан, аспірант Лабораторії комп’ютерних наук та штучного інтелекту.

Читайте набагато детальніше у MIT News тут.

Детальніше про теми: автономні машини, дослідження Microsoft

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *