Sevgili Sydney, geri geliyor musun?

Okuma zamanı simgesi 4 dk. okuman


Okuyucular MSpoweruser'ı desteklemeye yardımcı olur. Bağlantılarımız aracılığıyla satın alırsanız komisyon alabiliriz. Araç İpucu Simgesi

MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla

Uygunsuz davranışlar hakkında raporlar Bing sohbet robotu Microsoft'u yaratımına önemli güncellemeler uygulamaya itti. Bu, Redmond şirketini daha fazla sorundan kurtarmış olsa da, pek çok kişiyi hayal kırıklığına uğratan "lobotomiye uğramış" bir Sidney üretti. Ama orijinal Sidney gerçekten gitti mi?

ChatGPT destekli yeni Bing, hâlâ test kullanıcıları ile sınırlıdır. Ancak, onlardan biriyseniz, Bing'in chatbot'uyla ilgili mevcut deneyimin, ilk günlerine kıyasla artık tamamen farklı olduğu açıktır. Bu, çeşitli kullanıcıların bottan tuhaf yanıtlar aldıklarını bildirmeye başlamasıyla başladı. tehditler ve aşk itirafları için casusluk ve Depresyon.

Microsoft, uzatılmış sohbet oturumlarının sohbet robotunun kafasını karıştırabileceğini açıkladı. Bu nedenle, artık bir sınır kabul edebileceği sorgu sayısına bağlıdır. Ek olarak, gizli bilgileri sızdırmasına ve olumsuz yanıtlar vermesine neden olacak soruları veya ifadeleri yanıtlamayı artık reddediyor.

Nitekim, Bing'in en son sürümü artık kullanıcılarla etkileşimde daha dikkatli ve hassastır. Ancak değişiklikler, yeni Bing'i birçok kişi için çekici kılan ayırt edici bir özelliğini de ortadan kaldırdı: kişiliği.

Yine de bazı kullanıcılar, Microsoft'un sohbet robotu için farklı yeni modları ve özellikleri test ettiğini ortaya çıkaran bir dizi raporun ardından umutlu hale geldi. biri ton ayarı son zamanlarda serbest Mobil cihazlarda Bing kullanıcı arabirimi. Kullanıcılar tarafından sağlanan ekran görüntülerinde, chatbot'un kullanıcılara yanıtların "daha yaratıcı", "daha dengeli" veya "daha kesin" olmasını istedikleri takdirde seçenekler sunacağı görülüyor.

Geçen hafta, bir rapor Bleeping Bilgisayarı Microsoft geliştiricilerinin testini gösterdi "ekstra sohbet modları” Bing için. Sidney, Asistan, Arkadaş ve Oyun modları, kullanıcıların farklı işlevlere erişmesine izin verecek. Örneğin, Asistan modu, uçuş rezervasyonu yapmak ve hatırlatıcı ayarlamak için faydalı olurken, Oyun modu, kullanıcıların Bing ile oyun oynamasına izin verecektir. İlginç bir şekilde rapor, chatbot'un ayarlanan moda bağlı olarak farklı tonlarda yanıtlar da vereceğini ortaya koydu. Bleeping Computer'dan Lawrence Abrams, Bing'e üzücü bir durum sunarak bunu denedi; burada Sidney modu altında üzüntüyle başa çıkmak için ipuçları sağlarken, Arkadaş moduna ayarlandığında daha fazla sempati ifade ediyor gibi görünüyor.

Açıklamalar kulağa ilginç gelse de, Microsoft'un Sydney'i orijinal durumuna geri getirmeyi planladığına dair açık göstergeler değil. Şu an itibariyle, kullanıcıların belirttiği gibi, sohbet robotu kışkırtıcı sorgulara yanıt vermede hala kaçamak davranıyor. Bir kullanıcı da aşağı döndü eski Sidney'e yeni ton ayarları aracılığıyla erişebilme fikri, bunun "temelde bir kişilik olmadan yaratıcı çıktılar sağlayabildiği ve 'duyguları' gösterebildiği bir mod" olduğunu söyleyerek. Bununla birlikte, söz konusu özelliklerin olması muhtemeldir. şirketin chatbot'u daha kullanıcı dostu hale getirmek için attığı adımlardan sadece biri, ki bu daha mantıklı.

Şu anda, Sydney'i şeytanlaştıran raporlar su yüzüne çıkmaya devam ediyor ve devam etmelerine izin vermek Microsoft'un isteyeceği son şey olacak. Chatbot'un tuhaf kişiliği kesinlikle yeni Bing'in ününe katkıda bulunsa da Microsoft, yenilenen arama motorunun geleceğini garanti altına almak için bu konuda kumar oynamayacaktır.

Bing'in orijinal formunun korunması, olası yasal sorunlardan yatırım kayıplarına kadar şirket için gelecekte baş ağrısına dönüşebilir. Ek olarak, yazılım devi son duyurularında defalarca vurguladığı gibi, Bing hala test aşamasında ve sürekli olarak gelişiyor. Bu gerçeğin bir kısmı, gelişmekte olan bir Sydney, gelecekte olumsuz yanıtlar vermeden daha esnek konuları kabul edebilen bir sohbet robotudur. Bununla birlikte, o eski yaramaz botla tekrar sohbet edemesek de, Microsoft yakında bize hem kullanıcıları hem de kendi imajı için daha güvenli yanıtlar üretebilen daha iyi bir Sydney verebilir.

Konular hakkında daha fazla bilgi: ai, Yapay Zeka, bing, ChatGPT, microsoft, açık AI

Yorum bırak

E-posta hesabınız yayımlanmayacak. Gerekli alanlar işaretlenmişlerdir. *