Microsoft ima za cilj lagati svoju umjetnu inteligenciju kako bi smanjio seksističku pristranost

Ikona vremena čitanja 3 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

Jedna od najvećih prednosti humanističkih znanosti je sposobnost navigacije svijetom koristeći samo ograničene podatke, oslanjajući se velikim dijelom na naše iskustvo stečeno tijekom godina osobnog izlaganja, obrazovanja i medija.

To, na primjer, znači da vozimo sporije oko škola jer sumnjamo da bi u blizini mogla biti djeca ili nudimo sjedalo starijim osobama jer razumno sumnjamo da će biti slabiji od prosječne osobe.

Tamna strana ovih pretpostavki su naravno rasističke i seksističke pristranosti, gdje su naša uvjerenja slabo potkrijepljena, nepravedno ekstrapolirana s nekoliko na cijelu populaciju ili ne dopuštaju iznimke od pravila.

U razgovoru za Wired, Microsoftovi istraživači su otkrili da je umjetna inteligencija još podložnija razvoju ove vrste pristranosti.

Istraživači sa Sveučilišta u Bostonu i Microsofta pokazali su da softver obučen na tekstu prikupljenom s Google Newsa stvara veze poput "Muškarac je računalni programer kao što je žena domaćica."

Druga studija pokazala je da je umjetna umjetna inteligencija razvila snažne veze između žena i kućnih predmeta te muškaraca i tehnologije i na otvorenom, kada je AI obučen na dva velika skupa fotografija, koji se sastoje od više od 100,000 slika složenih scena izvučenih s weba, označenih od strane ljudi s opisima. aktivnosti.

U skupu podataka COCO, kuhinjski predmeti kao što su žlice i vilice bili su snažno povezani sa ženama, dok su sportska oprema na otvorenom, poput snowboarda i teniskih reketa, te tehnološki predmeti kao što su tipkovnice i računalni miševi bili jako povezani s muškarcima.

Zapravo, AI-jeve pristranosti bile su čak i jače od samog skupa podataka, što je dovelo do toga da je mnogo vjerojatnije da će osobu u kuhinji identificirati kao ženu, čak i ako je to bio muškarac.

Takve pristranosti, ako se otkriju, mogu se ispraviti dodatnom obukom, ali postoje značajni rizici da bi AI model mogao skliznuti u proizvodnju, a da svi takvi problemi ne budu riješeni.

Eric Horvitz, direktor Microsoft Researcha, rekao je “Ja i Microsoft kao cjelina slavimo napore u identificiranju i rješavanju pristranosti i nedostataka u skupovima podataka i sustavima stvorenim od njih. Istraživači i inženjeri koji rade s COCO i drugim skupovima podataka trebali bi tražiti znakove pristranosti u svom radu i radu drugih.”

Horvitz razmatra zanimljivo rješenje za dobivanje AI odmah od početka, sugerirajući umjesto slika izvučenih iz stvarnosti, AI bi mogao biti obučen na idealiziranim slikama koje prikazuju predmete s jednakom ravnotežom spolova, slično kao što bi obrazovni materijal za djecu odražavao stvarnost kao što je želimo da bude, a ne ono što jest.

“To je stvarno važno pitanje – kada bismo trebali promijeniti stvarnost da bi naši sustavi radili na željeni način?” on kaže.

Drugi istraživači nisu tako sigurni.

Ako doista ima više muških građevinskih radnika, programi za prepoznavanje slika to bi trebali vidjeti, kaže Aylin Caliskan, istraživačica s Princetona. Nakon toga se mogu poduzeti koraci za mjerenje i prilagođavanje bilo kakve pristranosti ako je potrebno. Rizikujemo da izgubimo bitne informacije, kaže ona. "Skupovi podataka moraju odražavati stvarne statistike u svijetu."

Više o temama: Umjetna inteligencija, microsoft istraživanje

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena *