A Microsoft está fazendo ajustes no Tay para evitar respostas inadequadas
1 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
Algumas horas atrás, nós relatado que a Microsoft já parou seu novo serviço de chatbot, Tay. Ontem, a Microsoft lançou o Tay, um projeto de aprendizado de máquina para saber mais sobre a interação humana. Ele se tornou viral online e milhares de usuários começaram a interagir com ele. Após várias horas do lançamento, Tay começou a responder de maneira inadequada, incluindo comentários racistas e abusivos, porque ela os aprendeu com suas interações com trolls da Internet. A Microsoft agora está fazendo ajustes no serviço para evitar esse comportamento e esperamos que ele volte a ficar online em breve.
Leia a resposta da Microsoft sobre esse problema abaixo,
“O chatbot de IA Tay é um projeto de aprendizado de máquina, projetado para o engajamento humano. É tanto um experimento social e cultural quanto técnico. Infelizmente, nas primeiras 24 horas após ficar online, tomamos conhecimento de um esforço coordenado de alguns usuários para abusar das habilidades de comentário de Tay para que Tay respondesse de maneira inadequada. Como resultado, colocamos Tay offline e estamos fazendo ajustes.”