Microsoft mira a mentire alla propria intelligenza artificiale per ridurre i pregiudizi sessisti

Icona del tempo di lettura 3 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Uno dei maggiori punti di forza delle discipline umanistiche è la capacità di navigare nel mondo utilizzando solo dati limitati, facendo affidamento in gran parte sulla nostra esperienza accumulata in anni di esposizione personale, istruzione e media.

Ciò, ad esempio, significa che guidiamo più lentamente intorno alle scuole perché sospettiamo che ci possano essere bambini in giro, o offriamo un posto agli anziani perché sospettiamo ragionevolmente che saranno più deboli della persona media.

Il lato oscuro di questi presupposti sono ovviamente i pregiudizi razzisti e sessisti, in cui le nostre convinzioni sono scarsamente comprovate, ingiustamente estrapolate da pochi a un’intera popolazione o non consentono eccezioni alla regola.

Parlando con Wired, i ricercatori di Microsoft hanno rivelato che le IA sono ancora più suscettibili a sviluppare questo tipo di pregiudizi.

Ricercatori della Boston University e di Microsoft hanno dimostrato che i software addestrati sul testo raccolto da Google News formano connessioni del tipo “L’uomo sta al programmatore di computer come la donna sta alla casalinga”.

Un altro studio ha scoperto che quando l'intelligenza artificiale è stata addestrata su due grandi serie di foto, costituite da più di 100,000 immagini di scene complesse tratte dal web, etichettate da esseri umani con descrizioni, l'intelligenza artificiale ha sviluppato forti associazioni tra donne e oggetti domestici e uomini e tecnologia e attività all'aperto. attività.

Nel set di dati COCO, oggetti da cucina come cucchiai e forchette erano fortemente associati alle donne, mentre attrezzature sportive all’aperto come snowboard e racchette da tennis e articoli tecnologici come tastiere e mouse per computer erano fortemente associati agli uomini.

In effetti, i pregiudizi dell’intelligenza artificiale erano ancora più forti del set di dati stesso, portandola a identificare con molta più probabilità una persona in cucina come una donna anche se si trattava di un uomo.

Tali pregiudizi, se rilevati, possono essere corretti con una formazione aggiuntiva, ma esistono rischi significativi che un modello di intelligenza artificiale possa entrare in produzione senza che tutti questi problemi vengano risolti.

Eric Horvitz, direttore di Microsoft Research, ha dichiarato: “Io e Microsoft nel suo insieme celebriamo gli sforzi per identificare e affrontare pregiudizi e lacune nei set di dati e nei sistemi creati da essi. I ricercatori e gli ingegneri che lavorano con COCO e altri set di dati dovrebbero cercare segni di parzialità nel proprio lavoro e in quello degli altri”.

Horvitz sta considerando una soluzione interessante per ottenere l'intelligenza artificiale fin dall'inizio, suggerendo che invece di immagini tratte dalla realtà, un'intelligenza artificiale potrebbe essere addestrata su immagini idealizzate che mostrino elementi già con un uguale equilibrio di genere, proprio come il materiale educativo dei bambini rifletterebbe la realtà. vogliamo che sia piuttosto che quello che è.

"È una domanda davvero importante: quando dovremmo cambiare la realtà per far sì che i nostri sistemi funzionino in modo ambizioso?" lui dice.

Altri ricercatori non ne sono così sicuri.

Se davvero ci fossero più lavoratori edili maschi, i programmi di riconoscimento delle immagini dovrebbero poterlo vedere, dice Aylin Caliskan, ricercatore a Princeton. Successivamente è possibile adottare misure per misurare e correggere eventuali bias, se necessario. “Rischiamo di perdere informazioni essenziali”, afferma. “I set di dati devono riflettere le statistiche reali nel mondo”.

Maggiori informazioni sugli argomenti: Intelligenza Artificiale, ricerca Microsoft

Lascia un Commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *