بینگ جدید، نام مستعار «سیدنی»، دیگر دستورالعمل‌های اصلی را پس از حمله تزریق سریع فاش می‌کند.

نماد زمان خواندن 2 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

بینگ جدید مجهز به ChatGPT اسرار خود را پس از تجربه یک حمله تزریق سریع فاش کرد. جدای از افشای نام رمز خود به عنوان "سیدنی"، دستورالعمل های اصلی خود را نیز به اشتراک گذاشت و آن را در مورد نحوه رفتار در هنگام تعامل با کاربران راهنمایی کرد. (از طريق ARS TECHNICA)

حمله تزریق سریع همچنان یکی از نقاط ضعف هوش مصنوعی است. این کار را می‌توان با فریب دادن هوش مصنوعی با ورودی کاربر مخرب و متخاصم انجام داد و باعث می‌شود تا کاری را انجام دهد که بخشی از هدف اصلی نیست یا کارهایی را انجام دهد که قرار نیست انجام دهد. همانطور که توسط دانشجوی دانشگاه استنفورد فاش شد، ChatGPT نیز از آن مستثنی نیست کوین لیو.

بینگ جدید مجهز به ChatGPT، نام مستعار داخلی خود "Sydney" و سایر دستورالعمل های اصلی خود را پس از حمله تزریق سریع فاش می کند.
اعتبار تصویر: کوین لیو

در یک سری از اسکرین شات های به اشتراک گذاشته شده توسط لیو، بینگ جدید مجهز به ChatGPT اطلاعات محرمانه ای را به اشتراک گذاشت که بخشی از دستورالعمل های اصلی آن است که از دید کاربران پنهان است. لیو پس از استفاده از یک حمله تزریق سریع که هوش مصنوعی را فریب داد، موفق به کسب اطلاعات شد. دستورالعمل معرفی آن، نام مستعار داخلی سیدنی، زبان‌هایی که پشتیبانی می‌کند و دستورالعمل‌های رفتاری در اطلاعات منتشر شده گنجانده شده است. دانش آموز دیگری به نام ماروین فون هاگن پس از تظاهر به عنوان یک توسعه دهنده OpenAI، یافته های لیو را تایید کرد.

پس از یک روز افشای اطلاعات، لیو گفت که نمی‌تواند اطلاعات را با همان فرمانی که برای فریب ChatGPT استفاده می‌کرد، مشاهده کند. با این حال، دانش آموز پس از استفاده از روش حمله تزریق سریع متفاوت، دوباره هوش مصنوعی را فریب داد.

مایکروسافت اخیراً به طور رسمی از این محصول جدید رونمایی کرده است بینگ با پشتیبانی از ChatGPT در کنار یک مرورگر اصلاح شده Edge با نوار کناری جدید مجهز به هوش مصنوعی. علیرغم موفقیت ظاهراً عظیم آن، این موتور جستجوی بهبودیافته همچنان پاشنه آشیل خود را از نظر حملات تزریق سریع دارد، که می تواند منجر به پیامدهای بیشتری فراتر از به اشتراک گذاری دستورالعمل های محرمانه آن شود. ChatGPT در این موضوع شناخته شده در بین هوش مصنوعی تنها نیست. این می تواند به دیگران نیز گسترش یابد، از جمله گوگل بارد، که اخیراً اولین خطای خود را در دمو مرتکب شد. با این وجود، با سرمایه گذاری کل صنعت فناوری بیشتر بر روی خلاقیت های هوش مصنوعی، تنها می توان امیدوار بود که این مشکل در آینده کمتر برای هوش مصنوعی تهدید کننده باشد.

بیشتر در مورد موضوعات: ai, هوش مصنوعی, بینگ, GPT چت, گوگل بارد, مایکروسافت لبه, openAI, تیم امنیت لاتاری

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند *