Microsoft zielt darauf ab, seine KI zu belügen, um sexistische Vorurteile zu reduzieren

Symbol für die Lesezeit 3 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Eine der größten Stärken der Geisteswissenschaften ist die Fähigkeit, mit nur begrenzten Daten durch die Welt zu navigieren, wobei wir uns zu einem großen Teil auf unsere Erfahrung verlassen, die wir über Jahre hinweg durch persönliche Kontakte, Bildung und Medien aufgebaut haben.

Das bedeutet zum Beispiel, dass wir in Schulen langsamer fahren, weil wir vermuten, dass Kinder in der Nähe sind, oder älteren Menschen einen Sitzplatz anbieten, weil wir vernünftigerweise vermuten, dass sie schwächer sein werden als die durchschnittliche Person.

Die dunkle Seite dieser Annahmen sind natürlich rassistische und sexistische Vorurteile, bei denen unsere Überzeugungen schlecht begründet sind, unfair von einigen auf eine ganze Bevölkerung hochgerechnet werden oder keine Ausnahmen von der Regel zulassen.

Im Gespräch mit Wired haben Microsoft-Forscher herausgefunden, dass KIs noch anfälliger für die Entwicklung dieser Art von Voreingenommenheit sind.

Forscher der Boston University und von Microsoft zeigten, dass Software, die mit Texten trainiert wurde, die von Google News gesammelt wurden, Verbindungen wie „Der Mann ist zum Computerprogrammierer wie die Frau zur Hausfrau“ herstellt.

Eine andere Studie ergab, dass die KI starke Assoziationen zwischen Frauen und Haushaltsgegenständen und Männern und Technologie und Outdoor entwickelte, als die KI mit zwei großen Fotosätzen trainiert wurde, die aus mehr als 100,000 Bildern komplexer Szenen aus dem Internet bestanden und von Menschen mit Beschreibungen versehen wurden Aktivitäten.

Im COCO-Datensatz wurden Küchengegenstände wie Löffel und Gabeln stark mit Frauen assoziiert, während Outdoor-Sportgeräte wie Snowboards und Tennisschläger und technische Gegenstände wie Tastaturen und Computermäuse sehr stark mit Männern assoziiert wurden.

Tatsächlich waren die Vorurteile der KI sogar noch stärker als der Datensatz selbst, was dazu führte, dass sie eine Person in einer Küche mit viel größerer Wahrscheinlichkeit als Frau identifizierte, selbst wenn es sich um einen Mann handelte.

Solche Verzerrungen können, wenn sie erkannt werden, durch zusätzliches Training korrigiert werden, aber es besteht ein erhebliches Risiko, dass ein KI-Modell in die Produktion rutscht, ohne dass alle diese Probleme gelöst wurden.

Eric Horvitz, Direktor von Microsoft Research, sagte: „Ich und Microsoft als Ganzes feiern die Bemühungen, Verzerrungen und Lücken in Datensätzen und daraus erstellten Systemen zu identifizieren und anzugehen. Forscher und Ingenieure, die mit COCO und anderen Datensätzen arbeiten, sollten nach Anzeichen von Voreingenommenheit in ihrer eigenen und anderen Arbeit suchen.“

Horvitz erwägt eine interessante Lösung, um die KI von Anfang an richtig zu machen, und schlägt vor, eine KI anstelle von Bildern, die aus der Realität stammen, auf idealisierten Bildern zu trainieren, die bereits Gegenstände mit einem ausgewogenen Geschlechterverhältnis zeigen, ähnlich wie Bildungsmaterial für Kinder die Realität widerspiegeln würde wir wollen, dass es ist, anstatt was es ist.

„Es ist eine wirklich wichtige Frage – wann sollten wir die Realität ändern, damit unsere Systeme die angestrebte Leistung erbringen?“ er sagt.

Andere Forscher sind sich da nicht so sicher.

Wenn es wirklich mehr männliche Bauarbeiter gibt, sollten Bilderkennungsprogramme das sehen dürfen, sagt Aylin Caliskan, Forscherin in Princeton. Anschließend können Schritte unternommen werden, um etwaige Abweichungen zu messen und bei Bedarf anzupassen. „Wir riskieren den Verlust wichtiger Informationen“, sagt sie. „Die Datensätze müssen die realen Statistiken der Welt widerspiegeln.“

Mehr zu den Themen: Künstliche Intelligenz, Microsoft Forschung

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *