Microsoft помогает беспилотным автомобилям осознать свои ограничения

Значок времени чтения 2 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Невежество — это блаженство, и часто самые невежественные люди принимают самые верные решения, не обремененные осознанием того, что они могут быть ошибочными.

Во многих ситуациях это все хорошо и хорошо, но при нынешнем уровне развития беспилотных автомобилей уверенное столкновение Tesla с пожарной машиной или белым фургоном (и то, и другое случалось) может быть довольно опасным.

Проблема в том, что беспилотные автомобили достаточно умны, чтобы водить автомобили, но не знать, когда они попадают в ситуацию, выходящую за рамки их уровня уверенности и возможностей.

Microsoft Research работала с Массачусетским технологическим институтом, чтобы помочь автомобилям точно знать, когда ситуации неоднозначны.

Как отмечают новости MIT, одна и та же ситуация может получать множество разных сигналов, потому что система воспринимает многие ситуации как идентичные. Например, автономный автомобиль может много раз проехать рядом с большим автомобилем, не снижая скорости и не останавливаясь. Но только в одном случае мимо проезжает машина скорой помощи, которая кажется системе точно такой же. Автономный автомобиль не останавливается и получает сигнал обратной связи о том, что система предприняла недопустимое действие. Поскольку необычное обстоятельство заключается в том, что автомобили редки, они могут научиться игнорировать их, когда они все еще важны, несмотря на то, что они редки.

Новая система, созданная Microsoft, будет распознавать эти редкие системы с противоречивым обучением и может обучаться в ситуации, когда она, например, работала приемлемо в 90 % случаев, ситуация все еще достаточно неоднозначна, чтобы заслужить «слепую оценку». обнаруживать."

«Когда система развертывается в реальном мире, она может использовать эту изученную модель, чтобы действовать более осторожно и разумно. Если обученная модель с высокой вероятностью предсказывает состояние как слепое пятно, система может запросить у человека приемлемое действие, обеспечивая более безопасное выполнение», — сказал Рамья Рамакришнан, аспирант Лаборатории компьютерных наук и искусственного интеллекта.

Читать подробнее в новостях Массачусетского технологического института здесь.

Подробнее о темах: Автономные автомобили, исследование Microsoft

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *