Microsoft pyrkii valehtelemaan tekoälylleen vähentääkseen seksististä ennakkoluuloa

Lukuajan kuvake 3 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Yksi humanististen tieteiden suurimmista vahvuuksista on kyky navigoida maailmassa käyttämällä vain rajoitettua dataa, ja se perustuu suurelta osin vuosien henkilökohtaisen altistumisen, koulutuksen ja median aikana keräämiimme kokemuksiin.

Tämä tarkoittaa esimerkiksi sitä, että ajamme hitaammin koulujen ympärillä, koska epäilemme, että lähellä saattaa olla lapsia, tai tarjoamme paikkaa vanhuksille, koska epäilemme heidän olevan keskimääräistä ihmistä heikompia.

Näiden oletusten pimeä puoli on tietysti rasistinen ja seksistinen ennakkoluulo, jossa uskomuksemme ovat huonosti perusteltuja, epäoikeudenmukaisesti ekstrapoloituja muutamasta koko väestöstä tai eivät salli poikkeuksia sääntöön.

Puhuessaan Wiredille Microsoftin tutkijat ovat paljastaneet, että tekoälyt ovat vielä herkempiä kehittämään tällaista harhaa.

Bostonin yliopiston ja Microsoftin tutkijat osoittivat, että Google Newsista kerätylle tekstille koulutetut ohjelmistot muodostaisivat yhteyksiä, kuten "Mies on ohjelmoijalle kuten nainen kodin äidille".

Toisessa tutkimuksessa havaittiin, että kun tekoälyä opetettiin kahdella suurella valokuvasarjalla, jotka koostuivat yli 100,000 XNUMX kuvasta verkosta piirretyistä monimutkaisista kohtauksista, jotka ihmiset olivat merkitseneet kuvauksin, tekoäly kehitti vahvat assosiaatiot naisten ja kodin tavaroiden sekä miesten ja teknologian ja ulkoilun välille. toimintaa.

COCO-aineistossa keittiön esineet, kuten lusikat ja haarukat, yhdistettiin vahvasti naisiin, kun taas ulkourheiluvälineet, kuten lumilaudat ja tennismailat, sekä teknologiatuotteet, kuten näppäimistöt ja tietokonehiiret, yhdistettiin erittäin vahvasti miehiin.

Itse asiassa tekoälyn ennakkoluulot olivat jopa vahvempia kuin itse tietojoukko, mikä johti siihen, että se tunnistaa keittiössä olevan henkilön naiseksi paljon todennäköisemmin, vaikka se olisi mies.

Jos tällaisia ​​harhoja havaitaan, ne voidaan korjata lisäkoulutuksella, mutta on olemassa merkittäviä riskejä, että tekoälymalli saattaa luiskahtaa tuotantoon ilman, että kaikki tällaiset ongelmat ratkeavat.

Eric Horvitz, Microsoft Researchin johtaja, sanoi: "Minä ja Microsoft kokonaisuudessaan juhlimme pyrkimyksiä tunnistaa ja korjata vääristymiä ja aukkoja tietojoukoissa ja niistä luoduissa järjestelmissä. COCO:n ja muiden tietokokonaisuuksien kanssa työskentelevien tutkijoiden ja insinöörien tulisi etsiä merkkejä puolueellisuudesta omassa ja muissa työssään.

Horvitz pohtii mielenkiintoista ratkaisua tekoälyn saamiseen heti alusta alkaen. Hän ehdottaa, että tekoäly voidaan kouluttaa todellisuudesta otettujen kuvien sijaan idealisoituihin kuviin, joissa näkyy jo tasa-arvoisia asioita, aivan kuten lasten opetusmateriaali heijastaisi todellisuutta, kuten esim. haluamme sen olevan ennemmin kuin mitä se on.

"Se on todella tärkeä kysymys – milloin meidän pitäisi muuttaa todellisuutta, jotta järjestelmämme toimisivat tavoitteellisesti?" hän sanoo.

Muut tutkijat eivät ole niin varmoja.

Jos miespuolisia rakennustyöntekijöitä todella on enemmän, kuvantunnistusohjelmien pitäisi antaa nähdä se, sanoo Princetonin tutkija Aylin Caliskan. Myöhemmin voidaan tarvittaessa mitata ja säätää mahdollisia poikkeamia. "Saamme menettää olennaisen tiedon", hän sanoo. "Tietojen on heijastettava maailman todellisia tilastoja."

Lisää aiheista: Tekoäly, microsoft -tutkimus

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *