마이크로소프트는 성차별적 편견을 줄이기 위해 AI에게 거짓말을 하는 것을 목표로 한다

독서 시간 아이콘 3 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

인문학의 가장 큰 장점 중 하나는 제한된 데이터만 사용하여 세계를 탐색할 수 있는 능력이며 수년간의 개인적인 노출, 교육 및 미디어를 통해 축적된 경험에 크게 의존합니다.

예를 들어, 이것은 우리가 주변에 어린이가 있을 수 있다고 생각하기 때문에 학교 주변에서 더 천천히 운전하거나 보통 사람보다 약할 것이라고 합리적으로 의심되기 때문에 노인에게 자리를 제공한다는 것을 의미합니다.

물론 이러한 가정의 어두운 면은 우리의 신념이 제대로 입증되지 않거나 소수에서 전체 인구로 부당하게 외삽되거나 규칙에 대한 예외를 허용하지 않는 인종 차별적 및 성 차별적 편견입니다.

Wired와의 인터뷰에서 Microsoft 연구원은 AI가 이러한 종류의 편향을 개발하는 데 훨씬 더 취약하다고 밝혔습니다.

Boston University와 Microsoft의 연구원은 Google 뉴스에서 수집된 텍스트로 훈련된 소프트웨어가 "남자는 컴퓨터 프로그래머에게, 여자는 주부에게"와 같은 연결을 형성할 수 있음을 보여주었습니다.

또 다른 연구에 따르면 웹에서 가져온 복잡한 장면의 100,000개 이상의 이미지로 구성된 두 개의 큰 사진 세트로 AI를 훈련시켰을 때 인간이 설명과 함께 레이블을 붙였을 때 AI는 여성과 가정용품, 남성과 기술과 야외 사이에 강한 연관성을 발전시켰습니다. 활동.

COCO 데이터 세트에서 숟가락과 포크와 같은 주방 용품은 여성과 강한 연관성이 있는 반면, 스노우보드 및 테니스 라켓과 같은 야외 스포츠 장비와 키보드 및 컴퓨터 마우스와 같은 기술 항목은 남성과 매우 강한 연관성을 보였습니다.

실제로 AI의 편견은 데이터 세트 자체보다 훨씬 더 강력하여 주방에 있는 사람이 남자일지라도 여자로 식별할 가능성이 훨씬 더 높습니다.

이러한 편향이 감지되면 추가 교육을 통해 수정할 수 있지만 이러한 모든 문제가 해결되지 않은 상태에서 AI 모델이 생산에 들어갈 수 있는 상당한 위험이 있습니다.

Microsoft Research의 이사인 Eric Horvitz는 "저와 Microsoft는 전체적으로 데이터 세트와 데이터 세트에서 생성된 시스템의 편견과 격차를 식별하고 해결하려는 노력을 축하합니다. COCO 및 기타 데이터 세트로 작업하는 연구원과 엔지니어는 자신의 작업과 다른 작업에서 편견의 징후를 찾아야 합니다."

Horvitz는 처음부터 AI를 바로잡을 수 있는 흥미로운 솔루션을 고려하고 있습니다. 현실에서 가져온 이미지 대신 AI가 어린이 교육 자료가 현실을 반영하는 것처럼 이미 평등한 성별 균형을 가진 항목을 보여주는 이상적인 이미지로 훈련될 수 있다고 제안합니다. 우리는 그것이 무엇인지보다는 그것이 되기를 원합니다.

"정말 중요한 질문입니다. 우리 시스템이 열망하는 방식으로 작동하도록 현실을 언제 바꿔야 할까요?" 그는 말한다.

다른 연구자들은 그렇게 확신하지 못합니다.

실제로 남성 건설 노동자가 더 많다면 이미지 인식 프로그램이 이를 볼 수 있도록 해야 한다고 프린스턴 대학의 연구원인 Aylin Caliskan은 말합니다. 필요한 경우 편향을 측정하고 조정하기 위한 조치를 나중에 취할 수 있습니다. "필수 정보를 잃을 위험이 있습니다."라고 그녀는 말합니다. "데이터 세트는 세계의 실제 통계를 반영해야 합니다."

주제에 대한 추가 정보: 인공 지능, 마이크로 소프트 연구

댓글을 남겨주세요.

귀하의 이메일 주소는 공개되지 않습니다. *표시항목은 꼭 기재해 주세요. *