Microsoft sigter mod at lyve over for deres AI for at reducere sexistisk bias

Ikon for læsetid 3 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

En af humaniora største styrker er evnen til at navigere i verden ved hjælp af kun begrænsede data, for en stor del afhængig af vores erfaring opbygget gennem flere års personlig eksponering, uddannelse og medier.

Det betyder for eksempel, at vi kører langsommere rundt på skoler, fordi vi har mistanke om, at der kan være børn i nærheden, eller at vi tilbyder en plads til de ældre, fordi vi med rimelighed har mistanke om, at de vil være svagere end den gennemsnitlige person.

Den mørke side af disse antagelser er naturligvis racistiske og sexistiske skævheder, hvor vores overbevisninger er dårligt underbygget, uretfærdigt ekstrapoleret fra få til en hel befolkning eller ikke tillader undtagelser fra reglen.

Taler med Wired, Microsoft-forskere har afsløret, at AI'er er endnu mere modtagelige for at udvikle denne form for skævhed.

Forskere fra Boston University og Microsoft viste, at software trænet på tekst indsamlet fra Google News ville danne forbindelser som "Mand er for computerprogrammør, som kvinde er for hjemmegående."

En anden undersøgelse fandt, at da AI blev trænet på to store sæt billeder, bestående af mere end 100,000 billeder af komplekse scener tegnet fra nettet, mærket af mennesker med beskrivelser, udviklede AI stærke associationer mellem kvinder og husholdningsartikler og mænd og teknologi og udendørs aktiviteter.

I COCO-datasættet var køkkengenstande såsom skeer og gafler stærkt forbundet med kvinder, mens udendørs sportsudstyr såsom snowboards og tennisketchere og teknologiartikler såsom tastaturer og computermus var meget stærkt forbundet med mænd.

Faktisk var AI's skævheder endnu stærkere end selve datasættet, hvilket førte til, at det var meget mere sandsynligt at identificere en person i et køkken som en kvinde, selvom det var en mand.

Sådanne skævheder kan, hvis de opdages, korrigeres med yderligere træning, men der er betydelige risici for, at en AI-model kan glide i produktion, uden at alle sådanne problemer er løst.

Eric Horvitz, direktør for Microsoft Research, sagde "Jeg og Microsoft som helhed fejrer bestræbelser på at identificere og adressere skævheder og huller i datasæt og systemer, der er skabt ud af dem. Forskere og ingeniører, der arbejder med COCO og andre datasæt, bør lede efter tegn på bias i deres eget arbejde og andre."

Horvitz overvejer en interessant løsning til at få AI rigtigt fra starten, og foreslår i stedet for billeder hentet fra virkeligheden, en AI kan trænes på idealiserede billeder, som allerede viser emner med en ligelig kønsbalance, ligesom børns undervisningsmateriale ville afspejle virkeligheden som f.eks. vi ønsker, at det skal være i stedet for, hvad det er.

"Det er et virkelig vigtigt spørgsmål - hvornår skal vi ændre virkeligheden for at få vores systemer til at fungere på en forhåbningsfuld måde?" han siger.

Andre forskere er ikke så sikre.

Hvis der virkelig er flere mandlige bygningsarbejdere, bør billedgenkendelsesprogrammer have lov til at se det, siger Aylin Caliskan, forsker ved Princeton. Der kan tages skridt bagefter for at måle og justere enhver bias, hvis det er nødvendigt. "Vi risikerer at miste væsentlig information," siger hun. "Datasættene skal afspejle den virkelige statistik i verden."

Mere om emnerne: Kunstig intelligens, Microsoft-forskning

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *