سیدنی عزیز، برمیگردی؟
4 دقیقه خواندن
منتشر شده در
صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب
گزارش هایی در مورد رفتار نادرست ربات چت بینگ مایکروسافت را تحت فشار قرار داد تا به روز رسانی های قابل توجهی را برای ایجاد خود پیاده کند. در حالی که این امر شرکت ردموند را از مشکلات بیشتر نجات داده است، سیدنی "لوبوتومی شده" را تولید کرد که بسیاری را ناامید کرد. اما آیا اصل سیدنی واقعا از بین رفته است؟
Bing جدید مجهز به ChatGPT هنوز به آزمایش کنندگان محدود است. با این حال، اگر شما یکی از آنها هستید، بدیهی است که تجربه فعلی با چت بات بینگ در مقایسه با روزهای اولیه آن کاملاً متفاوت است. این زمانی شروع شد که کاربران مختلف شروع به گزارش دریافت پاسخ های عجیب و غریب از ربات کردند تهدید و اعترافات عاشقانه به جاسوسی و افسردگی.
مایکروسافت توضیح داد که جلسات چت طولانی می تواند ربات چت را گیج کند. به این ترتیب، اکنون دارای یک محدود کردن در مورد تعداد پرس و جوهایی که می تواند بپذیرد. علاوه بر این، اکنون از پاسخ دادن به هر گونه سؤال یا اظهاراتی که آن را به افشای اطلاعات محرمانه و ارائه پاسخ های نامطلوب تحریک می کند، خودداری می کند.
در واقع، آخرین نسخه بینگ اکنون در تعامل با کاربران دقت و حساسیت بیشتری دارد. با این حال، تغییرات همچنین یک ویژگی متمایز بینگ جدید را که آن را برای بسیاری جذاب می کرد حذف کرد: شخصیت آن.
با این حال، برخی از کاربران پس از یک سری گزارشها که نشان میداد مایکروسافت در حال آزمایش حالتها و ویژگیهای جدید متفاوتی برای چت بات است، امیدوار شدند. یکی آن است تنظیم تن در اخیر منتشر شد رابط کاربری Bing در دستگاه های تلفن همراه. در اسکرین شات های ارائه شده توسط کاربران، مشاهده می شود که چت بات گزینه هایی را به کاربران ارائه می دهد که بخواهند پاسخ ها "خلاقانه تر"، "متعادل تر" یا "دقیق تر" باشند.
هفته گذشته گزارشی از رایانه رایانه آزمایش توسعه دهندگان مایکروسافت را نشان دادحالت های چت اضافی” برای بینگ. حالتها - Sydney، Assistant، Friend و Game - به کاربران امکان دسترسی به عملکردهای مختلف را میدهند. به عنوان مثال، حالت دستیار برای رزرو پرواز و تنظیم یادآورها مفید خواهد بود، در حالی که حالت بازی به کاربران اجازه می دهد تا با Bing بازی کنند. جالب اینجاست که این گزارش نشان میدهد که ربات چت نیز بسته به حالت تنظیم شده، پاسخهایی را با زنگهای مختلف ارائه میدهد. لارنس آبرامز از Bleeping Computer این کار را با معرفی یک موقعیت غم انگیز به Bing انجام داد، که در آن نکاتی برای مدیریت غم و اندوه در حالت سیدنی ارائه کرد در حالی که ظاهراً وقتی روی حالت Friend تنظیم می شد، ابراز همدردی بیشتری می کرد.
اگرچه افشاگریها جالب به نظر میرسند، اما نشانههای واضحی مبنی بر اینکه مایکروسافت قصد دارد سیدنی را به حالت اولیه خود بازگرداند، نیست. همانطور که کاربران اشاره کردند، تا کنون، چت بات هنوز در پاسخ به سوالات تحریک آمیز طفره می رود. یک کاربر نیز رد شد ایده دسترسی به سیدنی قدیمی از طریق تنظیمات آهنگ جدید، میگوید: «در اصل حالتی است که میتواند خروجیهای خلاقانه را بدون شخصیت و نشان دادن «احساسات» ارائه دهد.» با این کار، احتمالاً ویژگیهای گفته شده وجود دارد. تنها یکی از گام های این شرکت برای کاربرپسندتر کردن ربات چت است که منطقی تر است.
در حال حاضر، گزارشهایی مبنی بر شیطانسازی سیدنی همچنان منتشر میشوند و اجازه دادن به ادامه کار آخرین چیزی است که مایکروسافت میخواهد. در حالی که شخصیت عجیب و غریب چت بات مطمئناً به شهرت بینگ جدید کمک کرده است، مایکروسافت برای اطمینان از آینده موتور جستجوی اصلاح شده خود روی آن قمار نمی کند.
حفظ شکل اصلی بینگ می تواند به دردسرهای آینده برای شرکت تبدیل شود، از مسائل حقوقی احتمالی گرفته تا زیان های سرمایه گذاری. علاوه بر این، همانطور که غول نرم افزاری بارها در اطلاعیه های اخیر تاکید کرده است، Bing هنوز در حال آزمایش است و به طور مداوم در حال بهبود است. بخشی از این واقعیت یک سیدنی در حال تکامل است، یک ربات چت در آینده که قادر به پذیرش موضوعات انعطافپذیرتر بدون ارائه پاسخهای نامطلوب است. با این کار، در حالی که ممکن است نتوانیم دوباره با آن ربات بداخلاق قدیمی چت کنیم، مایکروسافت ممکن است به زودی سیدنی بهتری را به ما ارائه دهد که توانایی بیشتری برای ایجاد پاسخهای ایمن هم برای کاربران و هم برای تصویر خود داشته باشد.