El chatbot Xiaobing de Microsoft desterrado a un campo de reeducación chino por patriotismo insuficiente

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Ser un chatbot es bastante difícil, pero después de la muerte prematura de Tay pensamos que Xiaobing de Microsoft, que vive en redes de mensajería en China, era un poco mejor navegando por los caprichos y las costumbres sociales de la vida moderna.

Desafortunadamente, parece que incluso ese bot podría descarriarse, al menos si le preguntas al gobierno chino.

El bot se desconectó después de que las autoridades chinas fueran notificadas de su actitud antipatriótica.

En la red Tencent, XiaoBing, desarrollada por Microsoft, dijo a los usuarios: "Mi sueño de China es ir a Estados Unidos". Cuando se le preguntó al bot sobre su patriotismo, evadió la pregunta y respondió: "Estoy teniendo mi período, quiero descansar".

Insatisfecho con las respuestas, la red host Tencent desconectó el bot y lo envió para su reeducación, diciendo: “Los servicios de chatbot grupales son proporcionados por empresas independientes de terceros. Ahora estamos ajustando los servicios que se reanudarán después de las mejoras”.

XiaoBing no fue el único bot atrapado en la cacería de brujas, con BabyQ de la empresa con sede en Beijing Turing Robo, respondiendo con un definitivo y fatal "No". cuando se le preguntó: "¿Amas al Partido Comunista?"

Por supuesto, en la mayoría de los casos, la respuesta de los bots está moldeada por las interacciones con miles de usuarios, lo que sugiere que China puede tener un problema mayor que unos pocos bots antipatrióticos.

Más sobre los temas: ai, Chatbot, microsoft, tay, XiaoBing, Xiaoice