Microsoft กำลังปรับเปลี่ยน Tay เพื่อหลีกเลี่ยงการตอบสนองที่ไม่เหมาะสม

ไอคอนเวลาอ่านหนังสือ 1 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

ทะยอย

ไม่กี่ชั่วโมงก่อน พวกเรา รายงาน ที่ Microsoft ได้หยุดบริการ Chatbot ใหม่แล้ว Tay เมื่อวานนี้ Microsoft ได้เปิดตัว Tay ซึ่งเป็นโปรเจ็กต์แมชชีนเลิร์นนิงเพื่อให้ทราบข้อมูลเพิ่มเติมเกี่ยวกับการโต้ตอบของมนุษย์ มันแพร่ระบาดทางออนไลน์และผู้ใช้หลายพันคนเริ่มโต้ตอบกับมัน หลังจากเปิดตัวไปได้หลายชั่วโมง Tay เริ่มตอบโต้ด้วยวิธีที่ไม่เหมาะสม ซึ่งรวมถึงความคิดเห็นที่เหยียดผิวและเหยียดหยาม เพราะเธอได้เรียนรู้จากปฏิสัมพันธ์ของเธอกับพวกโทรลล์ทางอินเทอร์เน็ต ขณะนี้ Microsoft กำลังปรับเปลี่ยนบริการเพื่อหลีกเลี่ยงพฤติกรรมดังกล่าว และหวังว่าจะกลับมาออนไลน์ได้ในเร็วๆ นี้

อ่านการตอบสนองของ Microsoft เกี่ยวกับปัญหานี้ด้านล่าง

“AI chatbot Tay เป็นโปรเจ็กต์แมชชีนเลิร์นนิงที่ออกแบบมาสำหรับการมีส่วนร่วมของมนุษย์ เป็นการทดลองทางสังคมและวัฒนธรรมมากพอๆ กับที่เป็นเทคนิค ขออภัย ภายใน 24 ชั่วโมงแรกของการออนไลน์ เราทราบถึงความร่วมมือของผู้ใช้บางรายในการใช้ทักษะการแสดงความคิดเห็นของ Tay ในทางที่ผิดเพื่อให้ Tay ตอบโต้ด้วยวิธีการที่ไม่เหมาะสม ด้วยเหตุนี้ เราจึงทำให้ Tay ออฟไลน์และกำลังปรับเปลี่ยน”

ข้อมูลเพิ่มเติมเกี่ยวกับหัวข้อต่างๆ: ai, chatbot, เรียนรู้เครื่อง, ไมโครซอฟท์, ออฟไลน์, ออนไลน์, บริการ, Tay

เขียนความเห็น

ที่อยู่อีเมลของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมาย *