Microsoft, Twitter kullanıcıları ırkçı olmayı öğrettikten sonra AI sohbet robotunu çekiyor

Okuma zamanı simgesi 1 dk. okuman


Okuyucular MSpoweruser'ı desteklemeye yardımcı olur. Bağlantılarımız aracılığıyla satın alırsanız komisyon alabiliriz. Araç İpucu Simgesi

MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla

tayai

Dün, Microsoft'un yeni AI sohbet botu Tay hakkında rapor verdik. AI sohbet robotu, internette yeni şeyler öğrendikçe yeni şeyler öğrenir. Beklendiği gibi, bazı Twitter kullanıcıları ona ırkçı olmayı öğretti:

https://twitter.com/geraldmellor/status/712880710328139776

…ve bu:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Tay, Direkt Mesajlara da cevap vermiyor. Ona bir DM gönderdiğinizde, basitçe şunu belirtir:

"Brb, yükseltmelerimi bugün laboratuvarda çok süslü hale getiriyor!"

Görünüşe göre Tay şu anda uyuyor:

https://twitter.com/TayandYou/status/712856578567839745

Microsoft'un Tay'ın ırkçı tweetlerinden bazılarını sildiğini belirtmekte fayda var. Şirket muhtemelen Tay'ı geliştirmek için çalışıyor ve umarım yakında geri döner.

Bununla ilgili daha fazla bilgi için Microsoft'a ulaştık ve onlardan haber aldığımızda ve haber alırsak hikayeyi güncelleyeceğiz.

Konular hakkında daha fazla bilgi: ai, Haydi, microsoft, tay, twitter

Yorum bırak

E-posta hesabınız yayımlanmayacak. Gerekli alanlar işaretlenmişlerdir. *