Inilah kesalahan Tay, dan apa yang dilakukan Microsoft untuk mengatasinya

Ikon waktu membaca 3 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

tayai

Microsoft baru-baru ini diperkenalkan sebuah chatbot AI bernama Tay. Chatbot itu sebenarnya cukup cerdas, tapi itu membuat beberapa tweet ofensif dan rasis setelah serangan "terkoordinasi". Hari ini, Peter Lee, Wakil Presiden Perusahaan Microsoft Research meminta maaf atas tweet Tay. Namun, dia juga menceritakan bagaimana kesalahan Tay, dan apa yang direncanakan perusahaan untuk dilakukan.

Pertama, Peter mengungkapkan bagaimana perusahaan mengembangkan Tay menggunakan penelitian ekstensif:

Saat kami mengembangkan Tay, kami merencanakan dan menerapkan banyak pemfilteran dan melakukan studi pengguna yang ekstensif dengan kelompok pengguna yang beragam. Kami menguji stres Tay dalam berbagai kondisi, khususnya untuk menjadikan interaksi dengan Tay sebagai pengalaman yang positif. Setelah kami merasa nyaman dengan cara Tay berinteraksi dengan pengguna, kami ingin mengundang lebih banyak orang untuk terlibat dengannya. Melalui peningkatan interaksi di mana kami berharap untuk belajar lebih banyak dan AI menjadi lebih baik dan lebih baik.

Kedua, dia berbicara tentang bagaimana Tay diajari untuk men-tweet komentar yang menyinggung. Seperti yang Anda ketahui, Tay belajar dari pengguna, dan beberapa pengguna menggunakan ini untuk mengubah Tay menjadi rasis. Petrus menyatakan:

Tempat logis bagi kami untuk terlibat dengan sekelompok besar pengguna adalah Twitter. Sayangnya, dalam 24 jam pertama setelah online, serangan terkoordinasi oleh sekelompok orang mengeksploitasi kerentanan di Tay. Meskipun kami telah bersiap untuk berbagai jenis penyalahgunaan sistem, kami telah melakukan pengawasan kritis untuk serangan khusus ini. Akibatnya, Tay mentweet kata-kata dan gambar yang sangat tidak pantas dan tercela. Kami bertanggung jawab penuh karena tidak melihat kemungkinan ini sebelumnya. Kami akan mengambil pelajaran ini dan juga pelajaran dari pengalaman kami di China, Jepang, dan AS Saat ini, kami sedang bekerja keras untuk mengatasi kerentanan spesifik yang diekspos oleh serangan terhadap Tay.

Terakhir, Peter membagikan bagaimana Microsoft berencana untuk meningkatkan Tay. Perusahaan menyatakan bahwa mereka perlu meningkatkan desain AI-nya, dan melakukan "segala yang mungkin" untuk membatasi eksploitasi seperti ini:

Ke depan, kami menghadapi beberapa tantangan penelitian yang sulit – namun menarik – dalam desain AI. Sistem AI menghasilkan interaksi positif dan negatif dengan orang-orang. Dalam hal ini, tantangannya sama sosialnya dengan teknisnya. Kami akan melakukan segala kemungkinan untuk membatasi eksploitasi teknis tetapi juga tahu bahwa kami tidak dapat sepenuhnya memprediksi semua kemungkinan penyalahgunaan interaktif manusia tanpa belajar dari kesalahan. Untuk melakukan AI dengan benar, seseorang perlu melakukan iterasi dengan banyak orang dan sering kali di forum publik. Kita harus memasukkan masing-masing dengan sangat hati-hati dan pada akhirnya belajar dan meningkatkan, langkah demi langkah, dan untuk melakukan ini tanpa menyinggung orang dalam prosesnya. Kami akan tetap teguh dalam upaya kami untuk belajar dari ini dan pengalaman lainnya saat kami bekerja untuk berkontribusi pada Internet yang mewakili yang terbaik, bukan yang terburuk, umat manusia.

Jadi kapan Tay kembali? Menurut Peter Lee, Microsoft akan membawa Tay kembali online ketika perusahaan cukup yakin bahwa chatbot AI mampu mengatasi eksploitasi teknis ini.

Lebih lanjut tentang topik: ai, microsoft, penelitian microsoft, tay