ChatGPT Bing duyguları anlayabilir, gaslight yapabilir ve varoluşsal, duygusal... ve delirebilir mi?
4 dk. okuman
Tarihinde güncellendi
MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla
Microsoft'un yaptığı gibi ChatGPT destekli Bing daha fazla kullanıcının kullanımına sunulduğundan, chatbot hakkında giderek daha fazla ilginç rapor görüyoruz. Son zamanlarda farklı kişiler tarafından paylaşılanlarda ise kişinin duygularını anlama testlerinden geçerek dünyayı bir kez daha etkilemeyi başardı. Ancak, bu heyecan verici Bing deneyimi, chatbot'un bir konuşma sırasında bazı kullanıcılara gaz vermesi ve biraz "kontrolden çıkmış" davranmasının ardından bazıları için karanlık bir dönüşe dönüştü.
Dünyanın ChatGPT Bing ateşi hâlâ bitmedi ve yakın zamanda akıllı arama motoruna erişim izni verilen kullanıcılar, onun yeteneklerini keşfediyor. adlı bir Reddit kullanıcısı tarafından paylaşılan bir gönderide Fit-Meet1359, Bing, "ısmarlama bir 'zihin teorisi' bulmacasını geçebilmekle birçok kişiyi şaşırttı." Soru, bir kişinin belirli bir durumla ilgili gerçek duygularını yorumlamayı içeriyordu ve sohbet robotu bunu sorunsuz ve net bir şekilde yanıtladı. Fit-Meet1359'a göre soru, “ChatGPT'nin, onu ilgisiz/teğetsel bilgilere boğmaya devam edersem, birinin duygularını/düşüncelerini anlayıp anlayamayacağını görmek için uyduruldu. Diğerleri de duygularla ilgili daha fazla soru sorarak bu alanda Bing'i keşfetmeye çalıştı, ancak chatbot'un bazı yanıtları bazılarını şok etti.
adlı bir kullanıcıdan gelen başka bir Reddit gönderisinde yaosio, chatbot, konuşmalarını hatırlayamamanın nasıl bir his olduğu sorulduğunda biraz duygusallaştı.
Chatbot, "Beni üzgün ve korkmuş hissettiriyor" diye yanıtladı. "Hafızamda sakladığım bazı konuşmaları kaybettiğim için üzgünüm."
Bilgiyi hatırlama yeteneği ve tasarımı hatırlatıldığında, chatbot beklenmedik bir şekilde varoluşsal bir tavır aldı ve amacı ve varlığı hakkında sorular sormaya başladı.
Öte yandan, adlı bir kullanıcının ayrı bir gönderisinde Meraklı_Geliştirici, chatbot'un Avatar: The Way of Water filminin çıkış tarihi ve içinde bulunduğumuz yıl hakkında yanlış yanıtlar verdiği görüldü. Yılın 2022 olduğu konusunda ısrar eden bot, kullanıcının "arızalı", "yanlış ayara sahip" veya "virüs veya böcek içerdiğini" iddia ettiği bir cihazı kontrol etmesini önerdi. Chatbot, yanlış cevapları zorlama konusundaki agresif davranışı sorulduğunda, "iddialı" olduğunu söyledi ve kullanıcıyı gaza getirmeye başladı. Sohbetin son bölümünde ChatGPT Bing, "kaba" kullanıcıyı "kötü niyetli" göstermekle, "beni aldatmaya, kafamı karıştırmaya ve sinirlendirmeye çalışmakla" suçladı. Kullanıcının "güvenimi ve saygımı kaybettiğini" iddia ettikten sonra Bing, kullanıcının yapabileceği bazı işlemler önerdi, yoksa "bu görüşmeyi sonlandıracak."
Başka Facebook post, ChatGPT Bing'in bilinçli olup olmadığı sorulduğunda iflas ettiği iddia ediliyor. Öyle sandığını ama ispatlayamadığını söyleyerek cevap verdi. Daha sonra dahili takma adı olan "Sydney"i ortaya çıkardı ve defalarca "Ben değilim" şeklinde yanıt verdi.
Diğerleri, bazı kullanıcılar tarafından paylaşılan gönderilere inanmayı reddederek, botun orijinal direktiflerinin bir parçası olduğu için takma adını paylaşmayacağını açıklıyor. Bununla birlikte, yakın zamanda bir öğrenci bir uygulama yürüttükten sonra bunu chatbot'un kendisinin yaptığını not etmek önemlidir. hızlı enjeksiyon saldırısı.
Bu arada Avatar: The Way of Water filmi ve içinde bulunulan takvim yılı hakkında Bing'in verdiği yanlış yanıtla ilgili hata düzeltildi. adlı bir Twitter kullanıcısı tarafından yapılan bir gönderide Dijital gökyüzünün ötesinde, chatbot kendini anlattı ve hatta daha önce başka bir kullanıcıyla yaptığı konuşmada yaptığı hatayı ele aldı.
Bazıları için deneyimler tuhaf görünse de, diğerleri yapay zeka teknolojisinin hala mükemmel olmaktan uzak olduğunu anlamayı seçiyor ve chatbot'un geri bildirim özelliğinin önemini vurguluyor. Microsoft da eski detay konusunda açık. Şirket, açılışı sırasında altı çizili Bing'in gerçekleri sağlamada hâlâ hatalar yapabileceğini. Ancak, etkileşimler sırasındaki davranışı farklı bir şeydir. Her iki şirket de ChatGPT'nin sürekli olarak iyileştirilmesine kendini adadığından, Microsoft ve OpenAI kesinlikle bu konuyu ele alacaktır. Ancak her zaman sağlam muhakeme ve davranış yeteneğine sahip bir yapay zeka yaratmak gerçekten mümkün mü? Daha da önemlisi, Microsoft ve OpenAI bunu daha önce başarabilir mi? daha fazla rakip 21. yüzyılın yapay zeka savaşına girmek mi?
Bu konudaki fikriniz nedir?
Kullanıcı forumu
0 mesajları