Microsoft želi lagati svoji umetni inteligenci, da bi zmanjšal seksistično pristranskost

Ikona časa branja 3 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Ena od največjih prednosti humanistike je sposobnost krmarjenja po svetu z uporabo le omejenih podatkov, pri čemer se v veliki meri zanašamo na naše izkušnje, ki smo si jih pridobili z leti osebne izpostavljenosti, izobraževanja in medijev.

To na primer pomeni, da se po šolah vozimo počasneje, ker sumimo, da so v bližini morda otroci, ali ponudimo sedež starejšim, ker utemeljeno sumimo, da bodo šibkejši od povprečne osebe.

Temna stran teh predpostavk so seveda rasistične in seksistične pristranskosti, kjer so naša prepričanja slabo utemeljena, neupravičeno ekstrapolirana z nekaj na celotno populacijo ali pa ne dopuščajo izjem od pravila.

Microsoftovi raziskovalci so v pogovoru za Wired razkrili, da je umetna inteligenca še bolj dovzetna za razvoj tovrstne pristranskosti.

Raziskovalci z univerze v Bostonu in Microsofta so pokazali, da bi programska oprema, usposobljena za besedilo, zbrano iz Googla News, ustvarila povezave, kot je »Moški je z računalniškim programerjem, kot je ženska z gospodinjo«.

Druga študija je pokazala, da je umetna inteligenca razvila močne povezave med ženskami in gospodinjskimi predmeti ter moškimi ter tehnologijo in na prostem, ko je bila umetna inteligenca izurjena na dveh velikih sklopih fotografij, sestavljenih iz več kot 100,000 slik kompleksnih prizorov, narisanih s spleta, ki so jih ljudje označili z opisi. dejavnosti.

V podatkovnem nizu COCO so kuhinjski predmeti, kot so žlice in vilice, močno povezani z ženskami, medtem ko so bili športna oprema na prostem, kot so deske za sneg in teniški loparji, ter tehnološki predmeti, kot so tipkovnice in računalniške miške, zelo močno povezani z moškimi.

Pravzaprav so bile pristranskosti AI celo močnejše od samega nabora podatkov, zaradi česar je veliko bolj verjetno, da bo osebo v kuhinji identificiralo kot žensko, tudi če je bil moški.

Takšne pristranskosti, če se odkrijejo, je mogoče popraviti z dodatnim usposabljanjem, vendar obstaja veliko tveganje, da bo model umetne inteligence zdrsnil v proizvodnjo, ne da bi se vse te težave rešile.

Eric Horvitz, direktor Microsoft Research, je dejal: »Jaz in Microsoft kot celota praznujemo prizadevanja za odkrivanje in odpravljanje pristranskosti in vrzeli v nizih podatkov in sistemih, ustvarjenih iz njih. Raziskovalci in inženirji, ki delajo s COCO in drugimi nizi podatkov, bi morali iskati znake pristranskosti pri svojem delu in drugih."

Horvitz razmišlja o zanimivi rešitvi, da bi umetno inteligenco dobili že od samega začetka, in predlaga, da bi namesto slik, narisanih iz realnosti, umetno inteligenco lahko usposobili na idealiziranih slikah, ki prikazujejo predmete z enakim ravnotežjem spolov, podobno kot bi otroško izobraževalno gradivo odražalo resničnost, kot je npr. želimo, da je bolj kot to, kar je.

"To je res pomembno vprašanje – kdaj naj spremenimo realnost, da bodo naši sistemi delovali na želeni način?" on reče.

Drugi raziskovalci niso tako prepričani.

Če je moških gradbenih delavcev res več, bi morali programi za prepoznavanje slik to videti, pravi Aylin Caliskan, raziskovalka s Princetona. Nato je mogoče izvesti korake za merjenje in po potrebi prilagoditev kakršne koli pristranskosti. "Tvegamo, da izgubimo bistvene informacije," pravi. "Nabori podatkov morajo odražati resnično statistiko v svetu."

Več o temah: Umetna inteligenca, Microsoftove raziskave

Pustite Odgovori

Vaš e-naslov ne bo objavljen. Obvezna polja so označena *