Microsoft กำลังปรับเปลี่ยน Tay เพื่อหลีกเลี่ยงการตอบสนองที่ไม่เหมาะสม
1 นาที. อ่าน
เผยแพร่เมื่อ
อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม
ไม่กี่ชั่วโมงก่อน พวกเรา รายงาน ที่ Microsoft ได้หยุดบริการ Chatbot ใหม่แล้ว Tay เมื่อวานนี้ Microsoft ได้เปิดตัว Tay ซึ่งเป็นโปรเจ็กต์แมชชีนเลิร์นนิงเพื่อให้ทราบข้อมูลเพิ่มเติมเกี่ยวกับการโต้ตอบของมนุษย์ มันแพร่ระบาดทางออนไลน์และผู้ใช้หลายพันคนเริ่มโต้ตอบกับมัน หลังจากเปิดตัวไปได้หลายชั่วโมง Tay เริ่มตอบโต้ด้วยวิธีที่ไม่เหมาะสม ซึ่งรวมถึงความคิดเห็นที่เหยียดผิวและเหยียดหยาม เพราะเธอได้เรียนรู้จากปฏิสัมพันธ์ของเธอกับพวกโทรลล์ทางอินเทอร์เน็ต ขณะนี้ Microsoft กำลังปรับเปลี่ยนบริการเพื่อหลีกเลี่ยงพฤติกรรมดังกล่าว และหวังว่าจะกลับมาออนไลน์ได้ในเร็วๆ นี้
อ่านการตอบสนองของ Microsoft เกี่ยวกับปัญหานี้ด้านล่าง
“AI chatbot Tay เป็นโปรเจ็กต์แมชชีนเลิร์นนิงที่ออกแบบมาสำหรับการมีส่วนร่วมของมนุษย์ เป็นการทดลองทางสังคมและวัฒนธรรมมากพอๆ กับที่เป็นเทคนิค ขออภัย ภายใน 24 ชั่วโมงแรกของการออนไลน์ เราทราบถึงความร่วมมือของผู้ใช้บางรายในการใช้ทักษะการแสดงความคิดเห็นของ Tay ในทางที่ผิดเพื่อให้ Tay ตอบโต้ด้วยวิธีการที่ไม่เหมาะสม ด้วยเหตุนี้ เราจึงทำให้ Tay ออฟไลน์และกำลังปรับเปลี่ยน”