Microsoft se snaží lhát jejich AI, aby snížil sexistické předsudky

Ikona času čtení 3 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Jednou z největších předností humanitních oborů je schopnost orientovat se ve světě pouze za použití omezených dat, přičemž se z velké části opírá o naše zkušenosti nashromážděné během let osobního kontaktu, vzdělávání a médií.

To například znamená, že jedeme pomaleji kolem škol, protože máme podezření, že v okolí mohou být děti, nebo nabízíme místo starším lidem, protože máme důvodné podezření, že budou slabší než průměrný člověk.

Stinnou stránkou těchto předpokladů jsou samozřejmě rasistické a sexistické předsudky, kdy jsou naše přesvědčení špatně podložené, nespravedlivě extrapolované z několika na celou populaci nebo neumožňují výjimky z pravidla.

V rozhovoru pro Wired výzkumníci Microsoftu odhalili, že AI jsou ještě náchylnější k rozvoji tohoto druhu zaujatosti.

Výzkumníci z Bostonské univerzity a Microsoftu ukázali, že software trénovaný na textu shromážděném z Google News by vytvořil spojení jako „Muž je k počítačovému programátorovi jako žena k hospodyňce“.

Jiná studie zjistila, že když byla umělá inteligence trénována na dvou velkých sadách fotografií, skládajících se z více než 100,000 XNUMX obrázků složitých scén nakreslených z webu, označených lidmi s popisem, vyvinula si umělá inteligence silné vazby mezi ženami a domácími potřebami a muži a technologií a venkovním prostředím. činnosti.

V datovém souboru COCO byly kuchyňské předměty, jako jsou lžíce a vidličky, silně spojeny s ženami, zatímco venkovní sportovní vybavení, jako jsou snowboardy a tenisové rakety, a technologické položky, jako jsou klávesnice a počítačové myši, byly velmi silně spojeny s muži.

Ve skutečnosti byly předsudky AI ještě silnější než samotný soubor dat, což vedlo k tomu, že je mnohem pravděpodobnější, že osobu v kuchyni identifikuje jako ženu, i když to byl muž.

Pokud jsou takové předsudky zjištěny, lze je napravit dalším školením, ale existuje značné riziko, že model umělé inteligence může vklouznout do výroby, aniž by byly všechny tyto problémy vyřešeny.

Eric Horvitz, ředitel Microsoft Research, řekl: „Já a Microsoft jako celek oslavujeme úsilí o identifikaci a řešení zkreslení a mezer v datových sadách a systémech z nich vytvořených. Výzkumníci a inženýři pracující s COCO a dalšími datovými soubory by měli hledat známky zaujatosti ve své vlastní práci a jiných."

Horvitz zvažuje zajímavé řešení, jak získat umělou inteligenci hned od začátku, a navrhuje, aby namísto obrázků čerpaných z reality mohla být umělá inteligence trénována na idealizovaných obrázcích, které ukazují položky se stejnou genderovou vyvážeností, podobně jako by vzdělávací materiály pro děti odrážely realitu, např. chceme, aby to bylo spíše než to, co to je.

"Je to opravdu důležitá otázka - kdy bychom měli změnit realitu, aby naše systémy fungovaly aspiračním způsobem?" on říká.

Jiní výzkumníci si nejsou tak jisti.

Pokud je skutečně více mužských stavebních dělníků, měly by to mít programy na rozpoznávání obrazu, aby to viděly, říká Aylin Caliskanová, výzkumnice z Princetonu. Následně lze podniknout kroky k měření a v případě potřeby k úpravě jakéhokoli vychýlení. "Riskujeme ztrátu důležitých informací," říká. "Datové sady musí odrážet skutečné statistiky ve světě."

Více o tématech: Umělá inteligence, průzkum společnosti Microsoft

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny *