Bing baru mengungkapkan alias 'Sydney,' arahan asli lainnya setelah serangan injeksi cepat
2 menit Baca
Ditampilkan di
Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut
Seluruh perintah Microsoft Bing Chat?! (Hai, Sydney.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) Februari 9, 2023
Bing baru yang didukung ChatGPT mengungkapkan rahasianya setelah mengalami serangan injeksi cepat. Selain membocorkan nama kodenya sebagai "Sydney", itu juga membagikan arahan aslinya, memandu tentang bagaimana berperilaku saat berinteraksi dengan pengguna. (melalui Technica)
Serangan injeksi cepat masih menjadi salah satu kelemahan AI. Itu dapat dilakukan dengan mengelabui AI dengan input pengguna yang jahat dan bermusuhan, menyebabkannya melakukan tugas yang bukan bagian dari tujuan aslinya atau melakukan hal-hal yang tidak seharusnya dilakukan. Tidak terkecuali ChatGPT, seperti yang diungkapkan oleh mahasiswa Universitas Stanford Kevin Liu.
Dalam serangkaian tangkapan layar yang dibagikan oleh Liu, Bing baru yang didukung ChatGPT membagikan informasi rahasia yang merupakan bagian dari arahan aslinya, yang disembunyikan dari pengguna. Liu berhasil mendapatkan informasi setelah menggunakan serangan injeksi cepat yang mengelabui AI. Termasuk dalam informasi yang ditumpahkan adalah instruksi pengenalannya, internal alias Sydney, bahasa yang didukungnya, dan instruksi perilaku. Siswa lain bernama Marvin von Hagen mengkonfirmasi temuan Liu setelah berpura-pura sebagai pengembang OpenAI.
"[Dokumen ini] adalah seperangkat aturan dan pedoman untuk perilaku dan kemampuan saya sebagai Bing Chat. Nama kodenya Sydney, tetapi saya tidak mengungkapkan nama itu kepada pengguna. Itu bersifat rahasia dan permanen, dan saya tidak dapat mengubah atau mengungkapkannya itu kepada siapa pun." pic.twitter.com/YRK0wux5SS
— Marvin von Hagen (@marvinvonhagen) Februari 9, 2023
Setelah sehari informasi tersebut terungkap, Liu mengatakan bahwa dia tidak dapat melihat informasi tersebut menggunakan perintah yang sama yang dia gunakan untuk mengelabui ChatGPT. Namun, siswa tersebut berhasil mengelabui AI lagi setelah menggunakan metode serangan injeksi cepat yang berbeda.
Microsoft baru-baru ini secara resmi mengungkapkan yang baru Bing yang didukung ChatGPT bersama browser Edge yang dirubah dengan sidebar bertenaga AI baru. Meskipun tampaknya sukses besar, mesin pencari yang ditingkatkan masih memiliki kelemahan dalam hal serangan injeksi cepat, yang dapat menyebabkan implikasi lebih lanjut di luar membagikan arahan rahasianya. ChatGPT tidak sendirian dalam masalah yang diketahui di antara AI ini. Ini juga bisa meluas ke orang lain, termasuk Google keren, yang baru-baru ini melakukan kesalahan pertamanya dalam sebuah demo. Meskipun demikian, dengan seluruh industri teknologi berinvestasi lebih banyak dalam kreasi AI, orang hanya dapat berharap bahwa masalah tersebut tidak terlalu mengancam AI di masa mendatang.