مایکروسافت پس از اینکه کاربران توییتر نژادپرستی را به آن آموزش دادند، چت ربات هوش مصنوعی خود را کنار گذاشت
1 دقیقه خواندن
منتشر شده در
صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب
دیروز در مورد چت ربات جدید هوش مصنوعی مایکروسافت به نام Tay گزارش دادیم. چت ربات هوش مصنوعی وقتی با چیزهای جدید در اینترنت آشنا می شود چیزهای جدیدی یاد می گیرد. همانطور که انتظار می رفت، برخی از کاربران توییتر به آن آموزش دادند که ... نژادپرست باشد:
https://twitter.com/geraldmellor/status/712880710328139776
…و این:
تای به پیامهای مستقیم نیز پاسخ نمیدهد. وقتی برای او DM می فرستید، به سادگی بیان می کند:
"Brb در حال دریافت ارتقاء من در آزمایشگاه امروز بسیار زیباست!"
ظاهراً تای در حال حاضر خواب است:
https://twitter.com/TayandYou/status/712856578567839745
شایان ذکر است که مایکروسافت در حال حذف برخی از توییت های نژادپرستانه تای است. این شرکت احتمالاً در حال کار بر روی بهبود Tay است و امیدواریم که به زودی بازگردد.
زمانی که مایکروسافت متوجه شد اینترنت چه چیزی را آموزش می دهد @TayandYou pic.twitter.com/tDSwSqAnbl
— SwiftOnSecurity (@SwiftOnSecurity) مارس 24، 2016
ما برای کسب اطلاعات بیشتر در این مورد با مایکروسافت تماس گرفتهایم، و در صورت دریافت پاسخ از آنها، داستان را بهروزرسانی خواهیم کرد.