Microsoft вносить корективи в Tay, щоб уникнути неадекватних відповідей

Значок часу читання 1 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

тайай

Кілька годин тому ми повідомляє що Microsoft вже припинила свій новий сервіс чат-бота Tay. Вчора Microsoft запустила Tay, проект машинного навчання, щоб дізнатися більше про взаємодію людей. Він став вірусним в Інтернеті, і тисячі користувачів почали з ним взаємодіяти. Через кілька годин після запуску Тей почала відповідати неприйнятними способами, включаючи расистські та образливі коментарі, тому що вона навчилася їх із спілкування з інтернет-тролями. Microsoft зараз вносить корективи в службу, щоб уникнути подібної поведінки, і, сподіваємося, незабаром вона знову відновиться.

Прочитайте відповідь Microsoft щодо цієї проблеми нижче,

«ШІ-чатбот Tay — це проект машинного навчання, розроблений для взаємодії з людьми. Це як соціальний і культурний експеримент, так і технічний. На жаль, протягом перших 24 годин після виходу в Інтернет ми дізналися про скоординовані зусилля деяких користувачів, спрямовані на зловживання навичками коментування Тея, щоб змусити Тея відповідати неналежним чином. У результаті ми перевели Tay в автономний режим і вносимо корективи».

Детальніше про теми: ai, Chatbot, навчання за допомогою машини, Microsoft, offline, онлайн, обслуговування, Тай

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *