A Microsoft está fazendo ajustes no Tay para evitar respostas inadequadas

Ícone de tempo de leitura 1 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Tayai

Algumas horas atrás, nós relatado que a Microsoft já parou seu novo serviço de chatbot, Tay. Ontem, a Microsoft lançou o Tay, um projeto de aprendizado de máquina para saber mais sobre a interação humana. Ele se tornou viral online e milhares de usuários começaram a interagir com ele. Após várias horas do lançamento, Tay começou a responder de maneira inadequada, incluindo comentários racistas e abusivos, porque ela os aprendeu com suas interações com trolls da Internet. A Microsoft agora está fazendo ajustes no serviço para evitar esse comportamento e esperamos que ele volte a ficar online em breve.

Leia a resposta da Microsoft sobre esse problema abaixo,

“O chatbot de IA Tay é um projeto de aprendizado de máquina, projetado para o engajamento humano. É tanto um experimento social e cultural quanto técnico. Infelizmente, nas primeiras 24 horas após ficar online, tomamos conhecimento de um esforço coordenado de alguns usuários para abusar das habilidades de comentário de Tay para que Tay respondesse de maneira inadequada. Como resultado, colocamos Tay offline e estamos fazendo ajustes.”

Mais sobre os tópicos: ai, Chatbot, aprendizado de máquina, microsoft, modo offline, online, serviço, tay

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *