Microsoft își propune să-și mintă inteligența artificială pentru a reduce prejudecățile sexiste

Pictograma timp de citire 3 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

Unul dintre cele mai mari puncte forte ale științelor umaniste este capacitatea de a naviga prin lume folosind doar date limitate, bazându-ne în mare parte pe experiența noastră acumulată de-a lungul anilor de expunere personală, educație și mass-media.

Acest lucru, de exemplu, înseamnă că conducem mai încet în jurul școlilor, deoarece bănuim că ar putea fi copii în preajmă, sau oferim un loc bătrânilor pentru că bănuim în mod rezonabil că vor fi mai slabi decât o persoană obișnuită.

Partea întunecată a acestor presupuneri sunt, desigur, părtiniri rasiste și sexiste, în care convingerile noastre sunt slab fundamentate, extrapolate în mod nedrept de la câteva la o populație întreagă sau nu permit excepții de la regulă.

Vorbind cu Wired, cercetătorii Microsoft au dezvăluit că IA sunt și mai susceptibile la dezvoltarea acestui tip de părtinire.

Cercetătorii de la Universitatea din Boston și Microsoft au arătat că software-ul instruit pe textele colectate de la Știri Google ar forma conexiuni precum „Bărbatul este cu programatorul de computere așa cum femeia este cu femeia de casă”.

Un alt studiu a constatat că, atunci când AI a fost antrenat pe două seturi mari de fotografii, constând din mai mult de 100,000 de imagini cu scene complexe extrase de pe web, etichetate de oameni cu descrieri, AI a dezvoltat asocieri puternice între femei și obiecte casnice și bărbați și tehnologie și exterior. Activități.

În setul de date COCO, obiectele de bucătărie, cum ar fi lingurile și furculițele, au fost puternic asociate cu femeile, în timp ce echipamentele sportive în aer liber, cum ar fi snowboard-urile și rachetele de tenis, și articolele tehnologice, cum ar fi tastaturile și șoarecii de computer, au fost foarte puternic asociate cu bărbații.

De fapt, prejudecățile AI au fost chiar mai puternice decât setul de date în sine, ceea ce a făcut ca acesta să fie mult mai probabil să identifice o persoană dintr-o bucătărie ca femeie, chiar dacă ar fi un bărbat.

Astfel de părtiniri, dacă sunt detectate, pot fi corectate cu instruire suplimentară, dar există riscuri semnificative ca un model AI să intre în producție fără ca toate aceste probleme să fie rezolvate.

Eric Horvitz, directorul Microsoft Research, a declarat: „Eu și Microsoft în ansamblu sărbătorim eforturile de identificare și abordare a părtinirilor și a lacunelor în seturile de date și sistemele create din acestea. Cercetătorii și inginerii care lucrează cu COCO și cu alte seturi de date ar trebui să caute semne de părtinire în propria lor muncă și a altora.”

Horvitz are în vedere o soluție interesantă pentru a obține IA chiar de la început, sugerând, în loc de imagini extrase din realitate, un AI poate fi antrenat pe imagini idealizate care arată deja articole cu un echilibru egal de gen, la fel cum materialul educațional pentru copii ar reflecta realitatea, cum ar fi vrem să fie mai degrabă decât ceea ce este.

„Este o întrebare cu adevărat importantă – când ar trebui să schimbăm realitatea pentru ca sistemele noastre să funcționeze într-un mod aspirațional?” el spune.

Alți cercetători nu sunt atât de siguri.

Dacă într-adevăr există mai mulți muncitori bărbați în construcții, ar trebui permise programelor de recunoaștere a imaginii să vadă asta, spune Aylin Caliskan, cercetător la Princeton. După aceea, pot fi luate măsuri pentru a măsura și ajusta orice părtinire, dacă este necesar. „Riscăm să pierdem informații esențiale”, spune ea. „Seturile de date trebuie să reflecte statisticile reale din lume.”

Mai multe despre subiecte: Inteligenta Artificiala, cercetare Microsoft

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *