Microsoft는 부적절한 응답을 피하기 위해 Tay를 조정하고 있습니다.

독서 시간 아이콘 1 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

타야이

몇 시간 전 우리는 신고 Microsoft는 이미 새로운 챗봇 서비스인 Tay를 중단했습니다. 어제 Microsoft는 인간 상호 작용에 대해 더 많이 알기 위한 기계 학습 프로젝트인 Tay를 출시했습니다. 온라인에서 입소문이 났고 수천 명의 사용자가 상호 작용하기 시작했습니다. 출시 몇 시간 후 Tay는 인터넷 트롤과의 상호 작용을 통해 배웠기 때문에 인종 차별적이거나 욕설을 포함하여 부적절한 방식으로 대응하기 시작했습니다. Microsoft는 현재 이러한 동작을 방지하기 위해 서비스를 조정하고 있으며 곧 다시 온라인 상태가 되기를 바랍니다.

아래에서 이 문제에 대한 Microsoft의 응답을 읽으십시오.

“AI 챗봇 Tay는 인간의 참여를 위해 설계된 기계 학습 프로젝트입니다. 그것은 기술적인 것만큼이나 사회적, 문화적 실험입니다. 불행히도 온라인에 접속한 지 24시간 이내에 일부 사용자가 Tay가 부적절한 방식으로 응답하도록 하기 위해 Tay의 댓글 기술을 남용하려는 조정된 노력을 알게 되었습니다. 결과적으로 우리는 Tay를 오프라인으로 전환하고 조정하고 있습니다.”

주제에 대한 추가 정보: ai, chatbot, 기계 학습, 마이크로 소프트, 오프라인, 온라인, 서비스, 테이

댓글을 남겨주세요.

귀하의 이메일 주소는 공개되지 않습니다. *표시항목은 꼭 기재해 주세요. *