Microsoft bertujuan untuk membohongi AI mereka untuk mengurangi bias seksis

Ikon waktu membaca 3 menit Baca


Pembaca membantu dukungan MSpoweruser. Kami mungkin mendapat komisi jika Anda membeli melalui tautan kami. Ikon Keterangan Alat

Baca halaman pengungkapan kami untuk mengetahui bagaimana Anda dapat membantu MSPoweruser mempertahankan tim editorial Baca lebih lanjut

Salah satu kekuatan terbesar humaniora adalah kemampuan untuk menavigasi dunia hanya dengan menggunakan data terbatas, mengandalkan sebagian besar pengalaman kami yang dibangun selama bertahun-tahun melalui paparan pribadi, pendidikan, dan media.

Ini, misalnya, berarti kami mengemudi lebih lambat di sekitar sekolah karena kami menduga mungkin ada anak-anak di sekitar, atau menawarkan tempat duduk kepada orang tua karena kami cukup curiga mereka akan lebih lemah daripada rata-rata orang.

Sisi gelap dari asumsi ini tentu saja bias rasis dan seksis, di mana keyakinan kita tidak didukung dengan baik, diekstrapolasi secara tidak adil dari beberapa ke seluruh populasi, atau tidak mengizinkan pengecualian terhadap aturan.

Berbicara kepada Wired, peneliti Microsoft telah mengungkapkan bahwa AI bahkan lebih rentan untuk mengembangkan bias semacam ini.

Peneliti dari Universitas Boston dan Microsoft menunjukkan bahwa perangkat lunak yang dilatih pada teks yang dikumpulkan dari Google Berita akan membentuk hubungan seperti "Pria adalah programmer komputer seperti wanita dengan ibu rumah tangga."

Studi lain menemukan ketika AI dilatih pada dua set besar foto, yang terdiri dari lebih dari 100,000 gambar adegan kompleks yang diambil dari web, diberi label oleh manusia dengan deskripsi, AI mengembangkan asosiasi yang kuat antara perempuan dan barang-barang domestik dan laki-laki dan teknologi dan luar ruangan. kegiatan.

Dalam dataset COCO, objek dapur seperti sendok dan garpu sangat terkait dengan wanita, sementara peralatan olahraga luar ruangan seperti papan seluncur salju dan raket tenis, serta item teknologi seperti keyboard dan mouse komputer sangat terkait erat dengan pria.

Faktanya, bias AI bahkan lebih kuat daripada dataset itu sendiri, membuatnya lebih mungkin untuk mengidentifikasi seseorang di dapur sebagai wanita bahkan jika itu adalah pria.

Bias tersebut, jika terdeteksi, dapat dikoreksi dengan pelatihan tambahan, tetapi ada risiko signifikan bahwa model AI dapat masuk ke produksi tanpa semua masalah tersebut diselesaikan.

Eric Horvitz, direktur Microsoft Research, mengatakan “Saya dan Microsoft secara keseluruhan merayakan upaya mengidentifikasi dan mengatasi bias dan kesenjangan dalam kumpulan data dan sistem yang dibuat darinya. Peneliti dan insinyur yang bekerja dengan COCO dan kumpulan data lainnya harus mencari tanda-tanda bias dalam pekerjaan mereka sendiri dan orang lain.”

Horvitz sedang mempertimbangkan solusi menarik untuk mendapatkan AI sejak awal, menyarankan alih-alih gambar yang diambil dari kenyataan, AI dapat dilatih pada gambar ideal yang sudah menunjukkan item dengan keseimbangan gender yang setara, seperti materi pendidikan anak-anak yang mencerminkan kenyataan seperti kita menginginkannya menjadi daripada apa adanya.

“Ini pertanyaan yang sangat penting – kapan kita harus mengubah kenyataan untuk membuat sistem kita bekerja dengan cara yang aspiratif?” dia berkata.

Peneliti lain tidak begitu yakin.

Jika memang ada lebih banyak pekerja konstruksi laki-laki, program pengenalan gambar harus diizinkan untuk melihat itu, kata Aylin Caliskan, seorang peneliti di Princeton. Langkah-langkah dapat diambil setelahnya untuk mengukur dan menyesuaikan bias apa pun jika diperlukan. “Kami berisiko kehilangan informasi penting,” katanya. “Dataset perlu mencerminkan statistik nyata di dunia.”

Lebih lanjut tentang topik: Kecerdasan Buatan, penelitian microsoft

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai *