Microsoft está haciendo ajustes a Tay para evitar respuestas inapropiadas

Icono de tiempo de lectura 1 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

tayai

Hace unas horas, nosotros reportaron que Microsoft ya detuvo su nuevo servicio de chatbot, Tay. Ayer, Microsoft lanzó Tay, un proyecto de aprendizaje automático para saber más sobre la interacción humana. Se volvió viral en línea y miles de usuarios comenzaron a interactuar con él. Después de varias horas de lanzamiento, Tay comenzó a responder de manera inapropiada, incluidos comentarios racistas y abusivos porque los aprendió de sus interacciones con los trolls de Internet. Microsoft ahora está haciendo ajustes en el servicio para evitar ese comportamiento y, con suerte, volverá a estar en línea pronto.

Lea la respuesta de Microsoft con respecto a este problema a continuación,

“El AI chatbot Tay es un proyecto de aprendizaje automático, diseñado para la participación humana. Es tanto un experimento social y cultural como técnico. Desafortunadamente, dentro de las primeras 24 horas de estar en línea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de comentarios de Tay para que Tay respondiera de manera inapropiada. Como resultado, desconectamos a Tay y estamos haciendo ajustes”.

Más sobre los temas: ai, Chatbot, máquina de aprendizaje, microsoft, digital fuera de línea., en línea, de coches, tay

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *