Microsoft sa snaží klamať ich AI, aby znížil sexistické predsudky

Ikona času čítania 3 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

Jednou z najväčších predností humanitných vied je schopnosť orientovať sa vo svete s použitím iba obmedzených údajov, pričom sa z veľkej časti spolieha na naše skúsenosti získané rokmi osobného kontaktu, vzdelávania a médií.

To napríklad znamená, že jazdíme pomalšie okolo škôl, pretože máme podozrenie, že v okolí môžu byť deti, alebo ponúkame miesto starším, pretože máme dôvodné podozrenie, že budú slabší ako priemerný človek.

Temnou stránkou týchto predpokladov sú samozrejme rasistické a sexistické predsudky, kde sú naše presvedčenia nedostatočne podložené, nespravodlivo extrapolované z niekoľkých na celú populáciu alebo neumožňujú výnimky z pravidla.

V rozhovore pre Wired výskumníci Microsoftu odhalili, že AI sú ešte náchylnejšie na rozvoj tohto druhu zaujatosti.

Výskumníci z Bostonskej univerzity a Microsoftu ukázali, že softvér trénovaný na texte zozbieranom zo služby Google News vytvorí spojenia ako „Muž je k počítačovému programátorovi ako žena k gazdinke“.

Iná štúdia zistila, že keď bola AI trénovaná na dvoch veľkých súboroch fotografií, ktoré pozostávali z viac ako 100,000 XNUMX obrázkov zložitých scén nakreslených z webu, označených ľuďmi s popismi, AI si vytvorila silné asociácie medzi ženami a domácimi predmetmi a mužmi a technológiou a exteriérom. činnosti.

V súbore údajov COCO boli kuchynské predmety, ako sú lyžice a vidličky, silne spojené so ženami, zatiaľ čo vonkajšie športové vybavenie, ako sú snowboardy a tenisové rakety, a technologické položky, ako sú klávesnice a počítačové myši, boli veľmi silne spojené s mužmi.

V skutočnosti boli predsudky AI ešte silnejšie ako samotný súbor údajov, čo viedlo k tomu, že je oveľa pravdepodobnejšie, že osobu v kuchyni identifikuje ako ženu, aj keď to bol muž.

Takéto zaujatosti, ak sa zistia, sa dajú napraviť dodatočným školením, existujú však značné riziká, že model AI sa môže dostať do výroby bez vyriešenia všetkých takýchto problémov.

Eric Horvitz, riaditeľ výskumu spoločnosti Microsoft, povedal: „Ja a Microsoft ako celok oslavujeme snahy identifikovať a riešiť zaujatosti a medzery v súboroch údajov a systémoch, ktoré sú z nich vytvorené. Výskumníci a inžinieri pracujúci s COCO a inými súbormi údajov by mali hľadať známky zaujatosti vo svojej vlastnej práci a iných."

Horvitz zvažuje zaujímavé riešenie, ako získať umelú inteligenciu hneď od začiatku, pričom navrhuje, aby namiesto obrázkov čerpaných z reality bola umelá inteligencia trénovaná na idealizovaných obrázkoch, ktoré už zobrazujú položky s rovnakou rodovou rovnováhou, podobne ako by vzdelávací materiál pre deti odrážal realitu, napr. chceme, aby to bolo skôr ako to, čo to je.

"Je to skutočne dôležitá otázka - kedy by sme mali zmeniť realitu, aby naše systémy fungovali ašpiračným spôsobom?" on hovorí.

Iní výskumníci si nie sú takí istí.

Ak je skutočne viac mužských stavebných robotníkov, programy na rozpoznávanie obrázkov by to mali mať možnosť vidieť, hovorí Aylin Caliskanová, výskumníčka z Princetonu. Potom je možné podniknúť kroky na meranie a úpravu akejkoľvek odchýlky, ak je to potrebné. "Riskujeme stratu základných informácií," hovorí. "Súbory údajov musia odrážať skutočné štatistiky vo svete."

Viac o témach: Umelá inteligencia, výskum spoločnosti Microsoft

Nechaj odpoveď

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *