Microsoft прагне збрехати своєму штучному інтелекту, щоб зменшити сексистську упередженість

Значок часу читання 3 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Однією з найбільших переваг гуманітарних наук є здатність орієнтуватися у світі, використовуючи лише обмежені дані, покладаючись значною мірою на наш досвід, накопичений роками особистого спілкування, освіти та засобів масової інформації.

Це, наприклад, означає, що ми їздимо повільніше навколо шкіл, оскільки підозрюємо, що поруч можуть бути діти, або пропонуємо місце людям похилого віку, оскільки ми обґрунтовано підозрюємо, що вони будуть слабкішими, ніж звичайна людина.

Темною стороною цих припущень є, звичайно, расистські та сексистські упередження, коли наші переконання погано обґрунтовані, несправедливо екстраполюються з кількох на ціле населення або не допускають винятків із правил.

У розмові з Wired дослідники Microsoft виявили, що штучний інтелект ще більш сприйнятливий до розвитку такого роду упередженості.

Дослідники з Бостонського університету та Microsoft показали, що програмне забезпечення, яке тренується на тексті, зібраному з Google News, утворює зв’язки на зразок «Чоловік — для програміста, як жінка — до домогосподарки».

Інше дослідження показало, що, коли ШІ навчали на двох великих наборах фотографій, які складалися з понад 100,000 XNUMX зображень складних сцен, зроблених з Інтернету, позначених людьми описами, ШІ створив сильні асоціації між жінками та предметами побуту, чоловіками та технологіями та зовнішнім виглядом. діяльність.

У наборі даних COCO кухонні предмети, такі як ложки та виделки, тісно асоціювалися з жінками, тоді як спортивне обладнання на відкритому повітрі, таке як сноуборди та тенісні ракетки, і технологічні елементи, такі як клавіатури та комп’ютерні миші, дуже сильно асоціювалися з чоловіками.

Насправді, упередження ШІ були навіть сильнішими, ніж сам набір даних, що призвело до того, що він з більшою ймовірністю ідентифікує людину на кухні як жінку, навіть якщо це був чоловік.

Такі упередження, якщо вони виявлені, можна виправити за допомогою додаткового навчання, але є значні ризики того, що модель AI може з’явитися у виробництво без вирішення всіх подібних проблем.

Ерік Хорвіц, директор Microsoft Research, сказав: «Я і Microsoft в цілому відзначаємо зусилля, спрямовані на виявлення та усунення упередженості та прогалин у наборах даних і створених на їх основі системах. Дослідники та інженери, які працюють з COCO та іншими наборами даних, повинні шукати ознаки упередженості у своїй роботі та інших».

Хорвіц розглядає цікаве рішення, щоб отримати AI з самого початку, припускаючи, що замість зображень, зроблених з реальності, AI можна навчати на ідеалізованих зображеннях, які показують предмети з рівним гендерним балансом, подібно до того, як навчальні матеріали для дітей відображатимуть реальність, як ми хочемо, щоб це було, а не те, що воно є.

«Це справді важливе питання – коли ми повинні змінити реальність, щоб наші системи працювали так, як прагнення?» він каже.

Інші дослідники не так впевнені.

Якщо чоловіків-будівельників справді більше, програмам розпізнавання зображень слід дозволити це побачити, каже Айлін Каліскан, дослідник з Прінстона. Пізніше можна вжити заходів для вимірювання та коригування будь-якого зміщення, якщо це необхідно. «Ми ризикуємо втратити важливу інформацію», — каже вона. «Набори даних повинні відображати реальну світову статистику».

Детальніше про теми: Штучний Інтелект, дослідження Microsoft

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *