Microsoft вносить корективи в Tay, щоб уникнути неадекватних відповідей
1 хв. читати
Опубліковано
Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі
Кілька годин тому ми повідомляє що Microsoft вже припинила свій новий сервіс чат-бота Tay. Вчора Microsoft запустила Tay, проект машинного навчання, щоб дізнатися більше про взаємодію людей. Він став вірусним в Інтернеті, і тисячі користувачів почали з ним взаємодіяти. Через кілька годин після запуску Тей почала відповідати неприйнятними способами, включаючи расистські та образливі коментарі, тому що вона навчилася їх із спілкування з інтернет-тролями. Microsoft зараз вносить корективи в службу, щоб уникнути подібної поведінки, і, сподіваємося, незабаром вона знову відновиться.
Прочитайте відповідь Microsoft щодо цієї проблеми нижче,
«ШІ-чатбот Tay — це проект машинного навчання, розроблений для взаємодії з людьми. Це як соціальний і культурний експеримент, так і технічний. На жаль, протягом перших 24 годин після виходу в Інтернет ми дізналися про скоординовані зусилля деяких користувачів, спрямовані на зловживання навичками коментування Тея, щоб змусити Тея відповідати неналежним чином. У результаті ми перевели Tay в автономний режим і вносимо корективи».
Форум користувачів
19 повідомлення