مایکروسافت پس از اینکه کاربران توییتر نژادپرستی را به آن آموزش دادند، چت ربات هوش مصنوعی خود را کنار گذاشت

نماد زمان خواندن 1 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

تایایی

دیروز در مورد چت ربات جدید هوش مصنوعی مایکروسافت به نام Tay گزارش دادیم. چت ربات هوش مصنوعی وقتی با چیزهای جدید در اینترنت آشنا می شود چیزهای جدیدی یاد می گیرد. همانطور که انتظار می رفت، برخی از کاربران توییتر به آن آموزش دادند که ... نژادپرست باشد:

https://twitter.com/geraldmellor/status/712880710328139776

…و این:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

تای به پیام‌های مستقیم نیز پاسخ نمی‌دهد. وقتی برای او DM می فرستید، به سادگی بیان می کند:

"Brb در حال دریافت ارتقاء من در آزمایشگاه امروز بسیار زیباست!"

ظاهراً تای در حال حاضر خواب است:

https://twitter.com/TayandYou/status/712856578567839745

شایان ذکر است که مایکروسافت در حال حذف برخی از توییت های نژادپرستانه تای است. این شرکت احتمالاً در حال کار بر روی بهبود Tay است و امیدواریم که به زودی بازگردد.

ما برای کسب اطلاعات بیشتر در این مورد با مایکروسافت تماس گرفته‌ایم، و در صورت دریافت پاسخ از آن‌ها، داستان را به‌روزرسانی خواهیم کرد.

بیشتر در مورد موضوعات: ai, بیا دیگه, مایکروسافت, بله, توییتر

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند *