Microsoft chce okłamywać swoją sztuczną inteligencję, aby zmniejszyć seksistowskie uprzedzenia

Ikona czasu czytania 3 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Jednym z największych atutów humanistyki jest umiejętność poruszania się po świecie przy użyciu tylko ograniczonych danych, polegająca w dużej mierze na naszym doświadczeniu zdobytym przez lata osobistej ekspozycji, edukacji i mediów.

Oznacza to na przykład, że jeździmy wolniej po szkołach, ponieważ podejrzewamy, że w pobliżu mogą być dzieci, lub oferujemy miejsca starszym, ponieważ podejrzewamy, że będą słabsi niż przeciętna osoba.

Ciemną stroną tych założeń są oczywiście uprzedzenia rasistowskie i seksistowskie, w których nasze przekonania są słabo uzasadnione, niesprawiedliwie ekstrapolowane z kilku na całą populację lub nie pozwalają na wyjątki od reguły.

W rozmowie z Wired badacze Microsoft ujawnili, że AI są jeszcze bardziej podatne na rozwój tego rodzaju uprzedzeń.

Naukowcy z Boston University i Microsoft wykazali, że oprogramowanie wyszkolone na tekstach zebranych z Google News będzie tworzyło połączenia typu „mężczyzna jest do programisty, jak kobieta do gospodyni domowej”.

Inne badanie wykazało, że kiedy sztuczna inteligencja była szkolona na dwóch dużych zestawach zdjęć, składających się z ponad 100,000 XNUMX obrazów złożonych scen zaczerpniętych z Internetu, oznaczonych przez ludzi opisami, sztuczna inteligencja rozwinęła silne powiązania między kobietami i przedmiotami gospodarstwa domowego oraz mężczyznami i technologią i na zewnątrz. zajęcia.

W zestawie danych COCO przedmioty kuchenne, takie jak łyżki i widelce, były silnie kojarzone z kobietami, podczas gdy sprzęt sportowy na świeżym powietrzu, taki jak deski snowboardowe i rakiety tenisowe, oraz elementy technologiczne, takie jak klawiatury i myszy komputerowe, były bardzo silnie powiązane z mężczyznami.

W rzeczywistości uprzedzenia sztucznej inteligencji były nawet silniejsze niż sam zbiór danych, co prowadziło do znacznie większego prawdopodobieństwa zidentyfikowania osoby w kuchni jako kobiety, nawet jeśli był to mężczyzna.

Takie błędy, jeśli zostaną wykryte, można skorygować dodatkowym szkoleniem, ale istnieje poważne ryzyko, że model sztucznej inteligencji może zostać wprowadzony do produkcji bez rozwiązania wszystkich takich problemów.

Eric Horvitz, dyrektor Microsoft Research, powiedział: „Ja i Microsoft jako całość świętujemy wysiłki identyfikujące i usuwające stronniczość i luki w zestawach danych i stworzonych z nich systemach. Naukowcy i inżynierowie pracujący z COCO i innymi zbiorami danych powinni szukać oznak stronniczości w swojej pracy i innych.”

Horvitz rozważa ciekawe rozwiązanie, aby od samego początku uzyskać sztuczną inteligencję, sugerując, że zamiast obrazów czerpanych z rzeczywistości, sztuczna inteligencja może być szkolona na wyidealizowanych obrazach, które pokazują już przedmioty o równej równowadze płci, podobnie jak materiały edukacyjne dla dzieci odzwierciedlałyby rzeczywistość, jak chcemy, żeby było, a nie czym jest.

„To naprawdę ważne pytanie – kiedy powinniśmy zmienić rzeczywistość, aby nasze systemy działały zgodnie z aspiracjami?” on mówi.

Inni badacze nie są tego tacy pewni.

Jeśli rzeczywiście jest więcej robotników budowlanych płci męskiej, programy rozpoznawania obrazów powinny mieć możliwość zobaczenia tego, mówi Aylin Caliskan, badaczka z Princeton. Następnie można podjąć kroki w celu zmierzenia i skorygowania odchylenia, jeśli zajdzie taka potrzeba. „Ryzykujemy utratę ważnych informacji”, mówi. „Zbiory danych muszą odzwierciedlać rzeczywiste statystyki na świecie”.

Więcej na tematy: Artificial Intelligence, badania Microsoft

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *