مایکروسافت قصد دارد برای کاهش تعصبات جنسی به هوش مصنوعی خود دروغ بگوید
3 دقیقه خواندن
منتشر شده در
صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب
یکی از بزرگترین نقاط قوت علوم انسانی، توانایی پیمایش در جهان تنها با استفاده از دادههای محدود است که بخش بزرگی از تجربه ما در طول سالها قرار گرفتن در معرض شخصی، آموزش و رسانهها ایجاد شده است.
برای مثال، این بدان معناست که ما با سرعت کمتری در مدارس رانندگی میکنیم، زیرا گمان میکنیم ممکن است بچههایی در اطراف باشند، یا به افراد مسن صندلی پیشنهاد میدهیم، زیرا به طور منطقی احتمال میدهیم که آنها ضعیفتر از افراد عادی باشند.
جنبه تاریک این مفروضات البته سوگیری های نژادپرستانه و جنسیتی است، که در آن باورهای ما به خوبی اثبات نشده اند، به طور غیرمنصفانه ای از تعداد معدودی به کل جمعیت تعمیم داده شده اند، یا استثناهایی از قاعده را مجاز نمی دانند.
در گفتگو با Wired، محققان مایکروسافت فاش کردند که هوش مصنوعی حتی بیشتر مستعد ایجاد این نوع سوگیری هستند.
محققان دانشگاه بوستون و مایکروسافت نشان دادند که نرم افزار آموزش داده شده بر روی متن جمع آوری شده از Google News ارتباط هایی مانند "مرد با برنامه نویس کامپیوتر است همانطور که زن با خانه دار است."
مطالعه دیگری نشان داد زمانی که هوش مصنوعی بر روی دو مجموعه بزرگ از عکس ها، متشکل از بیش از 100,000 تصویر از صحنه های پیچیده که از وب ترسیم شده بود و توسط انسان ها با توضیحات برچسب گذاری شده بود، آموزش دید، هوش مصنوعی ارتباط قوی بین زنان و اقلام خانگی و مردان و فناوری و فضای باز ایجاد کرد. فعالیت ها.
در مجموعه داده COCO، اشیاء آشپزخانه مانند قاشق و چنگال به شدت با زنان مرتبط بودند، در حالی که تجهیزات ورزشی در فضای باز مانند اسنوبرد و راکت تنیس، و آیتمهای فناوری مانند صفحه کلید و موشهای رایانه به شدت با مردان مرتبط بودند.
در واقع، تعصبات هوش مصنوعی حتی قویتر از خود مجموعه دادهها بود، که باعث میشد فرد در آشپزخانه را به عنوان یک زن تشخیص دهد، حتی اگر مرد باشد.
چنین سوگیریهایی، در صورت شناسایی، میتوانند با آموزشهای اضافی اصلاح شوند، اما خطرات قابلتوجهی وجود دارد که یک مدل هوش مصنوعی ممکن است بدون حل شدن همه این مسائل وارد تولید شود.
اریک هورویتز، مدیر تحقیقات مایکروسافت، گفت: «من و مایکروسافت به عنوان یک کل تلاشهایی را برای شناسایی و رفع سوگیریها و شکافها در مجموعه دادهها و سیستمهای ایجاد شده از آنها تحسین میکنیم. محققان و مهندسانی که با COCO و سایر مجموعههای داده کار میکنند باید به دنبال نشانههایی از سوگیری در کار خود و دیگران باشند.
هورویتز در حال بررسی راه حل جالبی برای دریافت درست هوش مصنوعی از همان ابتدا است و پیشنهاد می کند به جای تصاویری که از واقعیت گرفته شده اند، ممکن است هوش مصنوعی بر روی تصاویر ایده آلی آموزش داده شود که مواردی را با تعادل جنسیتی برابر نشان می دهد، بسیار شبیه به مطالب آموزشی کودکان که واقعیت را منعکس می کند. ما می خواهیم که آن چیزی باشد که هست.
"این یک سوال واقعا مهم است - چه زمانی باید واقعیت را تغییر دهیم تا سیستمهایمان به شیوهای آرزومند عمل کنند؟" او می گوید.
سایر محققان چندان مطمئن نیستند.
آیلین کالیسکان، محققی در پرینستون، میگوید: اگر واقعاً کارگران مرد ساختمانی بیشتر باشند، باید به برنامههای تشخیص تصویر اجازه داده شود که این موضوع را ببینند. در صورت نیاز می توان اقداماتی را برای اندازه گیری و تنظیم هرگونه سوگیری انجام داد. او می گوید: «ما در خطر از دست دادن اطلاعات ضروری هستیم. مجموعه داده ها باید منعکس کننده آمار واقعی در جهان باشند.