İşte Tay'in nasıl yanlış yaptığı ve Microsoft'un bu konuda ne yaptığı

Okuma zamanı simgesi 3 dk. okuman


Okuyucular MSpoweruser'ı desteklemeye yardımcı olur. Bağlantılarımız aracılığıyla satın alırsanız komisyon alabiliriz. Araç İpucu Simgesi

MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla

tayai

Microsoft yeni tanıttı Tay adında bir AI Chatbot. Chatbot aslında oldukça zekiydi, ama "koordineli" bir saldırının ardından saldırgan ve ırkçı bazı tweetler attı. Bugün Microsoft Research'ün Kurumsal Başkan Yardımcısı Peter Lee, Tay'ın tweetleri için özür diledi. Ancak Tay'ın nasıl yanlış gittiğini ve şirketin bu konuda ne yapmayı planladığını da paylaştı.

İlk olarak Peter, kapsamlı bir araştırma kullanarak şirketin Tay'ı nasıl geliştirdiğini açıkladı:

Tay'ı geliştirirken çok sayıda filtreleme planladık ve uyguladık ve çeşitli kullanıcı gruplarıyla kapsamlı kullanıcı çalışmaları yaptık. Özellikle Tay ile etkileşimi olumlu bir deneyim haline getirmek için Tay'ı çeşitli koşullar altında stres testi yaptık. Tay'ın kullanıcılarla nasıl etkileşim kurduğu konusunda rahatladıktan sonra, daha geniş bir grup insanı onunla etkileşime geçmeye davet etmek istedik. Daha fazla öğrenmeyi umduğumuz ve AI'nın daha iyi ve daha iyi olmasını beklediğimiz artan etkileşim yoluyla.

İkinci olarak, Tay'a saldırgan yorumları tweet atmayı nasıl öğrettiğinden bahsetti. Bildiğiniz gibi Tay, kullanıcılardan öğreniyor ve bazı kullanıcılar bunu Tay'ı ırkçı yapmak için kullandı. Peter şunları söyledi:

Büyük bir kullanıcı grubuyla etkileşim kurmamız için mantıklı yer Twitter'dı. Ne yazık ki, çevrimiçi olmanın ilk 24 saatinde, bir grup insan tarafından koordineli bir saldırı, Tay'daki bir güvenlik açığından yararlandı. Sistemin birçok suistimaline hazırlıklı olmamıza rağmen, bu özel saldırı için kritik bir gözden geçirme yapmıştık. Sonuç olarak Tay, çılgınca uygunsuz ve kınanması gereken kelimeleri ve görüntüleri tweetledi. Bu olasılığı önceden görememenin tüm sorumluluğunu üstleniyoruz. Çin, Japonya ve ABD'deki deneyimlerimizin yanı sıra bu dersi de ileriye taşıyacağız. Şu anda Tay'a yönelik saldırının maruz kaldığı belirli güvenlik açığını ele almak için yoğun bir şekilde çalışıyoruz.

Son olarak Peter, Microsoft'un Tay'ı nasıl geliştirmeyi planladığını paylaştı. Şirket, AI tasarımını geliştirmesi ve bunun gibi istismarları sınırlamak için "mümkün olan her şeyi" yapması gerektiğini belirtti:

Geleceğe baktığımızda, AI tasarımında bazı zor ve yine de heyecan verici araştırma zorluklarıyla karşı karşıyayız. AI sistemleri, insanlarla hem olumlu hem de olumsuz etkileşimlerden beslenir. Bu anlamda, zorluklar teknik olduğu kadar sosyaldir. Teknik istismarları sınırlamak için mümkün olan her şeyi yapacağız, ancak hatalardan ders çıkarmadan tüm olası insan etkileşimli yanlış kullanımlarını tam olarak tahmin edemeyeceğimizi de biliyoruz. AI'yı doğru yapmak için, birçok insanla ve genellikle halka açık forumlarda yineleme yapılması gerekir. Her birine büyük bir dikkatle girmeli ve nihayetinde adım adım öğrenmeli ve gelişmeli ve bunu süreçte insanları rahatsız etmeden yapmalıyız. İnsanlığın en kötüsünü değil, en iyisini temsil eden bir İnternete katkıda bulunmak için çalışırken, bu ve diğer deneyimlerden ders alma çabalarımızda kararlı kalacağız.

Tay ne zaman dönüyor? Peter Lee'ye göre, şirket AI sohbet robotunun bu teknik istismarları çözebileceğinden yeterince emin olduğunda Microsoft, Tay'ı tekrar çevrimiçi hale getirecek.

Konular hakkında daha fazla bilgi: ai, microsoft, microsoft araştırması, tay