Pertama, Peter mengungkapkan bagaimana perusahaan mengembangkan Tay menggunakan penelitian ekstensif:
Saat kami mengembangkan Tay, kami merencanakan dan menerapkan banyak pemfilteran dan melakukan studi pengguna yang ekstensif dengan kelompok pengguna yang beragam. Kami menguji stres Tay dalam berbagai kondisi, khususnya untuk menjadikan interaksi dengan Tay sebagai pengalaman yang positif. Setelah kami merasa nyaman dengan cara Tay berinteraksi dengan pengguna, kami ingin mengundang lebih banyak orang untuk terlibat dengannya. Melalui peningkatan interaksi di mana kami berharap untuk belajar lebih banyak dan AI menjadi lebih baik dan lebih baik.
Kedua, dia berbicara tentang bagaimana Tay diajari untuk men-tweet komentar yang menyinggung. Seperti yang Anda ketahui, Tay belajar dari pengguna, dan beberapa pengguna menggunakan ini untuk mengubah Tay menjadi rasis. Petrus menyatakan:
Tempat logis bagi kami untuk terlibat dengan sekelompok besar pengguna adalah Twitter. Sayangnya, dalam 24 jam pertama setelah online, serangan terkoordinasi oleh sekelompok orang mengeksploitasi kerentanan di Tay. Meskipun kami telah bersiap untuk berbagai jenis penyalahgunaan sistem, kami telah melakukan pengawasan kritis untuk serangan khusus ini. Akibatnya, Tay mentweet kata-kata dan gambar yang sangat tidak pantas dan tercela. Kami bertanggung jawab penuh karena tidak melihat kemungkinan ini sebelumnya. Kami akan mengambil pelajaran ini dan juga pelajaran dari pengalaman kami di China, Jepang, dan AS Saat ini, kami sedang bekerja keras untuk mengatasi kerentanan spesifik yang diekspos oleh serangan terhadap Tay.
Terakhir, Peter membagikan bagaimana Microsoft berencana untuk meningkatkan Tay. Perusahaan menyatakan bahwa mereka perlu meningkatkan desain AI-nya, dan melakukan "segala yang mungkin" untuk membatasi eksploitasi seperti ini:
Ke depan, kami menghadapi beberapa tantangan penelitian yang sulit – namun menarik – dalam desain AI. Sistem AI menghasilkan interaksi positif dan negatif dengan orang-orang. Dalam hal ini, tantangannya sama sosialnya dengan teknisnya. Kami akan melakukan segala kemungkinan untuk membatasi eksploitasi teknis tetapi juga tahu bahwa kami tidak dapat sepenuhnya memprediksi semua kemungkinan penyalahgunaan interaktif manusia tanpa belajar dari kesalahan. Untuk melakukan AI dengan benar, seseorang perlu melakukan iterasi dengan banyak orang dan sering kali di forum publik. Kita harus memasukkan masing-masing dengan sangat hati-hati dan pada akhirnya belajar dan meningkatkan, langkah demi langkah, dan untuk melakukan ini tanpa menyinggung orang dalam prosesnya. Kami akan tetap teguh dalam upaya kami untuk belajar dari ini dan pengalaman lainnya saat kami bekerja untuk berkontribusi pada Internet yang mewakili yang terbaik, bukan yang terburuk, umat manusia.
Jadi kapan Tay kembali? Menurut Peter Lee, Microsoft akan membawa Tay kembali online ketika perusahaan cukup yakin bahwa chatbot AI mampu mengatasi eksploitasi teknis ini.
Beri tahu kami jika Anda berhasil menyelesaikan masalah teknologi Anda dengan membaca artikel ini.
Kami senang mendengarnya!
Anda dapat berlangganan buletin kami untuk terus mendapatkan berita terkini dan penawaran terbaik!
Apakah anda punya saran?
Kami tahu betapa frustrasinya mencari solusi universal.
Jika Anda memiliki kesalahan yang mana tidak hadir di artikel, atau jika Anda tahu solusi yang lebih baik, tolong bantu kami untuk menyempurnakan panduan ini.