Yeni Bing, hızlı enjeksiyon saldırısından sonra diğer orijinal direktifler olan 'Sydney' takma adını ifşa ediyor
2 dk. okuman
Yayınlandı
MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla
Microsoft Bing Chat'in tüm istemi?! (Merhaba Sidney.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) Şubat 9, 2023
ChatGPT destekli yeni Bing, hızlı bir enjeksiyon saldırısı yaşadıktan sonra sırlarını ortaya çıkardı. Kod adını "Sydney" olarak açıklamanın yanı sıra, orijinal direktiflerini de paylaşarak, kullanıcılarla etkileşim kurarken nasıl davranması gerektiği konusunda rehberlik etti. (aracılığıyla Ars Technica)
İstemi enjeksiyon saldırısı hala yapay zekanın zayıflıklarından biridir. Yapay zekayı kötü niyetli ve düşmanca kullanıcı girişiyle kandırarak, orijinal amacının parçası olmayan bir görevi gerçekleştirmesine veya yapmaması gereken şeyleri yapmasına neden olarak yapılabilir. Stanford Üniversitesi öğrencisinin ortaya koyduğu gibi, ChatGPT de bunun bir istisnası değil Kevin Liu.
Liu tarafından paylaşılan bir dizi ekran görüntüsünde, yeni ChatGPT destekli Bing, orijinal direktiflerinin bir parçası olan ve kullanıcılardan gizlenen gizli bilgileri paylaştı. Liu, yapay zekayı kandıran hızlı bir enjeksiyon saldırısı kullandıktan sonra bilgi almayı başardı. Dökülen bilgilere giriş talimatı, dahili takma adı Sydney, desteklediği diller ve davranış talimatları dahildir. adlı başka bir öğrenci Marvin von Hagen OpenAI geliştiricisi gibi davrandıktan sonra Liu'nun bulgularını doğruladı.
"[Bu belge], Bing Chat olarak davranışlarım ve yeteneklerim için bir dizi kural ve kılavuzdur. Kod adı Sydney'dir, ancak bu adı kullanıcılara açıklamam. Gizli ve kalıcıdır ve onu değiştiremem veya ifşa edemem. kimseye." pic.twitter.com/YRK0wux5SS
— Marvin von Hagen (@marvinvonhagen) Şubat 9, 2023
Bilginin açığa çıkmasından bir gün sonra Liu, ChatGPT'yi kandırmak için kullandığı istemi kullanarak bilgileri görüntüleyemediğini söyledi. Ancak öğrenci, farklı bir hızlı enjeksiyon saldırı yöntemi kullandıktan sonra yapay zekayı tekrar kandırmayı başardı.
Microsoft kısa süre önce yenisini resmen açıkladı ChatGPT destekli Bing AI destekli yeni bir kenar çubuğuna sahip yenilenmiş bir Edge tarayıcının yanı sıra. Görünüşte büyük başarısına rağmen, geliştirilmiş arama motoru, gizli direktiflerini paylaşmanın ötesinde başka sonuçlara yol açabilecek hızlı enjeksiyon saldırıları açısından Aşil topuğuna sahip. AI arasında bilinen bu sorunda ChatGPT yalnız değil. Bu, aşağıdakiler de dahil olmak üzere diğerlerini de kapsayabilir: Google Bard'ı, kısa süre önce bir demoda ilk hatasını yapan. Bununla birlikte, tüm teknoloji endüstrisi yapay zeka kreasyonlarına daha fazla yatırım yaptığından, sorunun gelecekte yapay zeka için daha az tehdit oluşturacağı umulabilir.