Microsoft, Twitter kullanıcıları ırkçı olmayı öğrettikten sonra AI sohbet robotunu çekiyor
1 dk. okuman
Yayınlandı
MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla
Dün, Microsoft'un yeni AI sohbet botu Tay hakkında rapor verdik. AI sohbet robotu, internette yeni şeyler öğrendikçe yeni şeyler öğrenir. Beklendiği gibi, bazı Twitter kullanıcıları ona ırkçı olmayı öğretti:
https://twitter.com/geraldmellor/status/712880710328139776
…ve bu:
Tay, Direkt Mesajlara da cevap vermiyor. Ona bir DM gönderdiğinizde, basitçe şunu belirtir:
"Brb, yükseltmelerimi bugün laboratuvarda çok süslü hale getiriyor!"
Görünüşe göre Tay şu anda uyuyor:
https://twitter.com/TayandYou/status/712856578567839745
Microsoft'un Tay'ın ırkçı tweetlerinden bazılarını sildiğini belirtmekte fayda var. Şirket muhtemelen Tay'ı geliştirmek için çalışıyor ve umarım yakında geri döner.
Microsoft, İnternet'in ne öğrettiğini fark ettiğinde @tayandYou pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) 24 Mart, 2016
Bununla ilgili daha fazla bilgi için Microsoft'a ulaştık ve onlardan haber aldığımızda ve haber alırsak hikayeyi güncelleyeceğiz.