مایکروسافت قصد دارد برای کاهش تعصبات جنسی به هوش مصنوعی خود دروغ بگوید

نماد زمان خواندن 3 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

یکی از بزرگترین نقاط قوت علوم انسانی، توانایی پیمایش در جهان تنها با استفاده از داده‌های محدود است که بخش بزرگی از تجربه ما در طول سال‌ها قرار گرفتن در معرض شخصی، آموزش و رسانه‌ها ایجاد شده است.

برای مثال، این بدان معناست که ما با سرعت کمتری در مدارس رانندگی می‌کنیم، زیرا گمان می‌کنیم ممکن است بچه‌هایی در اطراف باشند، یا به افراد مسن صندلی پیشنهاد می‌دهیم، زیرا به طور منطقی احتمال می‌دهیم که آنها ضعیف‌تر از افراد عادی باشند.

جنبه تاریک این مفروضات البته سوگیری های نژادپرستانه و جنسیتی است، که در آن باورهای ما به خوبی اثبات نشده اند، به طور غیرمنصفانه ای از تعداد معدودی به کل جمعیت تعمیم داده شده اند، یا استثناهایی از قاعده را مجاز نمی دانند.

در گفتگو با Wired، محققان مایکروسافت فاش کردند که هوش مصنوعی حتی بیشتر مستعد ایجاد این نوع سوگیری هستند.

محققان دانشگاه بوستون و مایکروسافت نشان دادند که نرم افزار آموزش داده شده بر روی متن جمع آوری شده از Google News ارتباط هایی مانند "مرد با برنامه نویس کامپیوتر است همانطور که زن با خانه دار است."

مطالعه دیگری نشان داد زمانی که هوش مصنوعی بر روی دو مجموعه بزرگ از عکس ها، متشکل از بیش از 100,000 تصویر از صحنه های پیچیده که از وب ترسیم شده بود و توسط انسان ها با توضیحات برچسب گذاری شده بود، آموزش دید، هوش مصنوعی ارتباط قوی بین زنان و اقلام خانگی و مردان و فناوری و فضای باز ایجاد کرد. فعالیت ها.

در مجموعه داده COCO، اشیاء آشپزخانه مانند قاشق و چنگال به شدت با زنان مرتبط بودند، در حالی که تجهیزات ورزشی در فضای باز مانند اسنوبرد و راکت تنیس، و آیتم‌های فناوری مانند صفحه کلید و موش‌های رایانه به شدت با مردان مرتبط بودند.

در واقع، تعصبات هوش مصنوعی حتی قوی‌تر از خود مجموعه داده‌ها بود، که باعث می‌شد فرد در آشپزخانه را به عنوان یک زن تشخیص دهد، حتی اگر مرد باشد.

چنین سوگیری‌هایی، در صورت شناسایی، می‌توانند با آموزش‌های اضافی اصلاح شوند، اما خطرات قابل‌توجهی وجود دارد که یک مدل هوش مصنوعی ممکن است بدون حل شدن همه این مسائل وارد تولید شود.

اریک هورویتز، مدیر تحقیقات مایکروسافت، گفت: «من و مایکروسافت به عنوان یک کل تلاش‌هایی را برای شناسایی و رفع سوگیری‌ها و شکاف‌ها در مجموعه داده‌ها و سیستم‌های ایجاد شده از آنها تحسین می‌کنیم. محققان و مهندسانی که با COCO و سایر مجموعه‌های داده کار می‌کنند باید به دنبال نشانه‌هایی از سوگیری در کار خود و دیگران باشند.

هورویتز در حال بررسی راه حل جالبی برای دریافت درست هوش مصنوعی از همان ابتدا است و پیشنهاد می کند به جای تصاویری که از واقعیت گرفته شده اند، ممکن است هوش مصنوعی بر روی تصاویر ایده آلی آموزش داده شود که مواردی را با تعادل جنسیتی برابر نشان می دهد، بسیار شبیه به مطالب آموزشی کودکان که واقعیت را منعکس می کند. ما می خواهیم که آن چیزی باشد که هست.

"این یک سوال واقعا مهم است - چه زمانی باید واقعیت را تغییر دهیم تا سیستم‌هایمان به شیوه‌ای آرزومند عمل کنند؟" او می گوید.

سایر محققان چندان مطمئن نیستند.

آیلین کالیسکان، محققی در پرینستون، می‌گوید: اگر واقعاً کارگران مرد ساختمانی بیشتر باشند، باید به برنامه‌های تشخیص تصویر اجازه داده شود که این موضوع را ببینند. در صورت نیاز می توان اقداماتی را برای اندازه گیری و تنظیم هرگونه سوگیری انجام داد. او می گوید: «ما در خطر از دست دادن اطلاعات ضروری هستیم. مجموعه داده ها باید منعکس کننده آمار واقعی در جهان باشند.

بیشتر در مورد موضوعات: هوش مصنوعی, تحقیقات مایکروسافت

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند *