Bing baru mengungkapkan alias 'Sydney,' arahan asli lainnya setelah serangan injeksi cepat

Ikon waktu membaca 2 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Bing baru yang didukung ChatGPT mengungkapkan rahasianya setelah mengalami serangan injeksi cepat. Selain membocorkan nama kodenya sebagai "Sydney", itu juga membagikan arahan aslinya, memandu tentang bagaimana berperilaku saat berinteraksi dengan pengguna. (melalui Technica)

Serangan injeksi cepat masih menjadi salah satu kelemahan AI. Itu dapat dilakukan dengan mengelabui AI dengan input pengguna yang jahat dan bermusuhan, menyebabkannya melakukan tugas yang bukan bagian dari tujuan aslinya atau melakukan hal-hal yang tidak seharusnya dilakukan. Tidak terkecuali ChatGPT, seperti yang diungkapkan oleh mahasiswa Universitas Stanford Kevin Liu.

Bing baru yang didukung ChatGPT mengungkapkan alias internalnya 'Sydney' dan arahan asli lainnya setelah serangan injeksi cepat
Kredit Gambar: Kevin Liu

Dalam serangkaian tangkapan layar yang dibagikan oleh Liu, Bing baru yang didukung ChatGPT membagikan informasi rahasia yang merupakan bagian dari arahan aslinya, yang disembunyikan dari pengguna. Liu berhasil mendapatkan informasi setelah menggunakan serangan injeksi cepat yang mengelabui AI. Termasuk dalam informasi yang ditumpahkan adalah instruksi pengenalannya, internal alias Sydney, bahasa yang didukungnya, dan instruksi perilaku. Siswa lain bernama Marvin von Hagen mengkonfirmasi temuan Liu setelah berpura-pura sebagai pengembang OpenAI.

Setelah sehari informasi tersebut terungkap, Liu mengatakan bahwa dia tidak dapat melihat informasi tersebut menggunakan perintah yang sama yang dia gunakan untuk mengelabui ChatGPT. Namun, siswa tersebut berhasil mengelabui AI lagi setelah menggunakan metode serangan injeksi cepat yang berbeda.

Microsoft baru-baru ini secara resmi mengungkapkan yang baru Bing yang didukung ChatGPT bersama browser Edge yang dirubah dengan sidebar bertenaga AI baru. Meskipun tampaknya sukses besar, mesin pencari yang ditingkatkan masih memiliki kelemahan dalam hal serangan injeksi cepat, yang dapat menyebabkan implikasi lebih lanjut di luar membagikan arahan rahasianya. ChatGPT tidak sendirian dalam masalah yang diketahui di antara AI ini. Ini juga bisa meluas ke orang lain, termasuk Google keren, yang baru-baru ini melakukan kesalahan pertamanya dalam sebuah demo. Meskipun demikian, dengan seluruh industri teknologi berinvestasi lebih banyak dalam kreasi AI, orang hanya dapat berharap bahwa masalah tersebut tidak terlalu mengancam AI di masa mendatang.

Lebih lanjut tentang topik: ai, Kecerdasan Buatan, bing, ChatGPT, Google keren, Microsoft Edge, buka AI, keamanan

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai *