Microsoft вносит коррективы в Tay, чтобы избежать неуместных ответов

Значок времени чтения 1 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

тайай

Несколько часов назад мы переправу что Microsoft уже остановила свой новый сервис чат-ботов Tay. Вчера Microsoft запустила Tay, проект машинного обучения, чтобы узнать больше о человеческом взаимодействии. Он стал вирусным в сети, и тысячи пользователей начали с ним взаимодействовать. Через несколько часов после запуска Тай начала реагировать ненадлежащим образом, включая расистские и оскорбительные комментарии, потому что она узнала о них из общения с интернет-троллями. В настоящее время Microsoft вносит коррективы в службу, чтобы избежать такого поведения, и, надеюсь, она скоро вернется в сеть.

Прочитайте ответ Microsoft по этому вопросу ниже,

«Чат-бот с искусственным интеллектом Tay — это проект машинного обучения, разработанный для взаимодействия с людьми. Это настолько же социальный и культурный эксперимент, насколько и технический. К сожалению, в течение первых 24 часов после подключения к сети нам стало известно о скоординированных усилиях некоторых пользователей, направленных на злоупотребление навыками комментирования Тэя, чтобы заставить Тэй реагировать ненадлежащим образом. В результате мы отключили Tay и вносим коррективы».

Подробнее о темах: ai, Chatbot, обучение с помощью машины, Microsoft, оффлайн, онлайн, обслуживание, Тей

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *