Microsoft face ajustări la Tay pentru a evita răspunsurile inadecvate

Pictograma timp de citire 1 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

tayai

Cu câteva ore în urmă, noi raportate că Microsoft a oprit deja noul său serviciu de chatbot, Tay. Ieri, Microsoft a lansat Tay, un proiect de învățare automată pentru a afla mai multe despre interacțiunea umană. A devenit viral online și mii de utilizatori au început să interacționeze cu el. După câteva ore de la lansare, Tay a început să răspundă în moduri nepotrivite, inclusiv comentarii rasiste și abuzive, deoarece le-a învățat din interacțiunile ei cu trolii de pe internet. Microsoft face acum ajustări la serviciu pentru a evita un astfel de comportament și sperăm că va fi din nou online în curând.

Citiți mai jos răspunsul Microsoft cu privire la această problemă,

„Chatbot-ul AI Tay este un proiect de învățare automată, conceput pentru implicarea umană. Este atât de mult un experiment social și cultural, cât și tehnic. Din păcate, în primele 24 de ore de la intrarea online, am devenit conștienți de un efort coordonat al unor utilizatori de a abuza de abilitățile de comentare ale lui Tay pentru ca Tay să răspundă în moduri nepotrivite. Drept urmare, l-am scos pe Tay offline și facem ajustări.”

Mai multe despre subiecte: ai, chatbot, masina de învățare, microsoft, Offline, on-line, serviciu, Tay

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *