Microsoft помогает беспилотным автомобилям осознать свои ограничения
2 минута. читать
Опубликовано
Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее
Невежество — это блаженство, и часто самые невежественные люди принимают самые верные решения, не обремененные осознанием того, что они могут быть ошибочными.
Во многих ситуациях это все хорошо и хорошо, но при нынешнем уровне развития беспилотных автомобилей уверенное столкновение Tesla с пожарной машиной или белым фургоном (и то, и другое случалось) может быть довольно опасным.
Проблема в том, что беспилотные автомобили достаточно умны, чтобы водить автомобили, но не знать, когда они попадают в ситуацию, выходящую за рамки их уровня уверенности и возможностей.
Microsoft Research работала с Массачусетским технологическим институтом, чтобы помочь автомобилям точно знать, когда ситуации неоднозначны.
Как отмечают новости MIT, одна и та же ситуация может получать множество разных сигналов, потому что система воспринимает многие ситуации как идентичные. Например, автономный автомобиль может много раз проехать рядом с большим автомобилем, не снижая скорости и не останавливаясь. Но только в одном случае мимо проезжает машина скорой помощи, которая кажется системе точно такой же. Автономный автомобиль не останавливается и получает сигнал обратной связи о том, что система предприняла недопустимое действие. Поскольку необычное обстоятельство заключается в том, что автомобили редки, они могут научиться игнорировать их, когда они все еще важны, несмотря на то, что они редки.
Новая система, созданная Microsoft, будет распознавать эти редкие системы с противоречивым обучением и может обучаться в ситуации, когда она, например, работала приемлемо в 90 % случаев, ситуация все еще достаточно неоднозначна, чтобы заслужить «слепую оценку». обнаруживать."
«Когда система развертывается в реальном мире, она может использовать эту изученную модель, чтобы действовать более осторожно и разумно. Если обученная модель с высокой вероятностью предсказывает состояние как слепое пятно, система может запросить у человека приемлемое действие, обеспечивая более безопасное выполнение», — сказал Рамья Рамакришнан, аспирант Лаборатории компьютерных наук и искусственного интеллекта.
Читать подробнее в новостях Массачусетского технологического института здесь.