Microsoft, cinsiyetçi önyargıyı azaltmak için AI'larına yalan söylemeyi hedefliyor

Okuma zamanı simgesi 3 dk. okuman


Okuyucular MSpoweruser'ı desteklemeye yardımcı olur. Bağlantılarımız aracılığıyla satın alırsanız komisyon alabiliriz. Araç İpucu Simgesi

MSPoweruser'ın editör ekibini ayakta tutmasına nasıl yardımcı olabileceğinizi öğrenmek için açıklama sayfamızı okuyun. Daha fazla

Beşeri bilimlerin en güçlü yönlerinden biri, büyük ölçüde yıllar boyunca edindiğimiz kişisel maruziyet, eğitim ve medya deneyimimize dayanarak, yalnızca sınırlı veri kullanarak dünyayı dolaşabilme yeteneğidir.

Bu, örneğin, etrafta çocuklar olabileceğinden şüphelendiğimiz için okullarda daha yavaş sürdüğümüz veya ortalama bir kişiden daha zayıf olacaklarından makul ölçüde şüphelendiğimiz için yaşlılara yer verdiğimiz anlamına gelir.

Bu varsayımların karanlık tarafı, elbette, inançlarımızın yetersiz bir şekilde doğrulandığı, birkaç kişiden tüm nüfusa haksız bir şekilde tahmin edildiği veya kuralın istisnalarına izin verilmediği ırkçı ve cinsiyetçi önyargılardır.

Wired'a konuşan Microsoft araştırmacıları, yapay zekaların bu tür bir önyargı geliştirmeye daha yatkın olduğunu ortaya çıkardı.

Boston Üniversitesi ve Microsoft'tan araştırmacılar, Google Haberler'den toplanan metinler üzerinde eğitilen yazılımın, "Kadın ev kadını için nasılsa erkek de bilgisayar programcısıdır" gibi bağlantılar kuracağını gösterdi.

Başka bir çalışma, yapay zekanın, insanlar tarafından açıklamalarla etiketlenmiş, web'den çizilmiş 100,000'den fazla karmaşık sahne görüntüsünden oluşan iki büyük fotoğraf seti üzerinde eğitildiğinde, yapay zekanın kadınlar ve ev eşyaları ile erkekler ve teknoloji ve dış mekan arasında güçlü ilişkiler geliştirdiğini buldu. faaliyetler.

COCO veri setinde, kaşık ve çatal gibi mutfak eşyaları kadınlarla güçlü bir şekilde ilişkilendirilirken, snowboard ve tenis raketleri gibi açık hava spor ekipmanları ve klavyeler ve bilgisayar fareleri gibi teknoloji öğeleri erkeklerle çok güçlü bir şekilde ilişkilendirildi.

Aslında, AI'nın önyargıları veri kümesinin kendisinden bile daha güçlüydü ve mutfaktaki bir kişiyi erkek olsa bile kadın olarak tanımlama olasılığının çok daha yüksek olmasına yol açtı.

Bu tür önyargılar, tespit edilirse ek eğitim ile düzeltilebilir, ancak bir AI modelinin bu tür sorunların tümü çözülmeden üretime geçmesi gibi önemli riskler vardır.

Microsoft Research direktörü Eric Horvitz, “Ben ve Microsoft bir bütün olarak veri kümeleri ve bunlardan oluşturulan sistemlerdeki önyargıları ve boşlukları belirleme ve ele alma çabalarını kutluyoruz. COCO ve diğer veri kümeleriyle çalışan araştırmacılar ve mühendisler, kendi işlerinde ve diğerlerinde yanlılık belirtileri aramalıdır."

Horvitz, AI'yı en baştan elde etmek için ilginç bir çözüm düşünüyor ve gerçeklikten alınan görüntüler yerine, bir AI'nın, çocukların eğitim materyallerinin aşağıdaki gibi gerçekliği yansıtacağı gibi, zaten eşit cinsiyet dengesine sahip öğeleri gösteren idealleştirilmiş görüntüler üzerinde eğitilebileceğini öne sürüyor. ne olduğundan çok olmasını istiyoruz.

"Bu gerçekten önemli bir soru - sistemlerimizin istek uyandıran bir şekilde çalışmasını sağlamak için gerçeği ne zaman değiştirmeliyiz?" diyor.

Diğer araştırmacılar o kadar emin değiller.

Princeton'da araştırmacı olan Aylin Çalışkan, gerçekten daha fazla erkek inşaat işçisi varsa, imaj tanıma programlarının bunu görmesine izin verilmesi gerektiğini söylüyor. Gerekirse sapmaları ölçmek ve ayarlamak için daha sonra adımlar atılabilir. “Önemli bilgileri kaybetme riskiyle karşı karşıyayız” diyor. "Veri kümelerinin dünyadaki gerçek istatistikleri yansıtması gerekiyor."

Konular hakkında daha fazla bilgi: Yapay Zeka, microsoft araştırması

Yorum bırak

E-posta hesabınız yayımlanmayacak. Gerekli alanlar işaretlenmişlerdir. *