Querida Sydney, ¿vas a volver?

Icono de tiempo de lectura 4 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Informes sobre el mal comportamiento robot de chat de Bing empujó a Microsoft a implementar actualizaciones significativas en su creación. Si bien esto salvó a la compañía de Redmond de más problemas, produjo un Sydney "lobotomizado" que decepcionó a muchos. Pero, ¿se ha ido realmente el Sydney original?

El nuevo Bing impulsado por ChatGPT todavía está limitado a los probadores. Sin embargo, si usted es uno de ellos, es obvio que la experiencia actual con el chatbot de Bing ahora es totalmente diferente en comparación con sus primeros días. Esto comenzó cuando varios usuarios comenzaron a informar que recibían respuestas extrañas del bot, que iban desde amenazas y confesiones de amor a espionaje y depresión..

Microsoft explicó que las sesiones de chat extendidas podrían confundir al chatbot. Como tal, ahora tiene un límitar del número de consultas que puede aceptar. Además, ahora se niega a responder cualquier pregunta o declaración que provoque que se filtre información confidencial y proporcione respuestas desfavorables.

De hecho, la última versión de Bing ahora es más cuidadosa y sensible al interactuar con los usuarios. Sin embargo, los cambios también eliminaron una característica distintiva del nuevo Bing que lo hacía atractivo para muchos: su personalidad.

Sin embargo, algunos usuarios se llenaron de esperanza después de que una serie de informes revelaran que Microsoft ha estado probando diferentes modos y funciones nuevos para el chatbot. uno es el ajuste de tono en el recientemente liberado Interfaz de usuario de Bing en dispositivos móviles. En las capturas de pantalla proporcionadas por los usuarios, se puede ver que el chatbot ofrecerá a los usuarios las opciones si quieren que las respuestas sean “más creativas”, “más equilibradas” o “más precisas”.

La semana pasada, un informe de Bleeping Computer mostró las pruebas de los desarrolladores de Microsoft “modos de chat adicionales” para Bing. Los modos Sydney, Asistente, Amigo y Juego permitirán a los usuarios acceder a diferentes funciones. Por ejemplo, el modo Asistente será útil para reservar vuelos y configurar recordatorios, mientras que el modo Juego permitirá a los usuarios jugar con Bing. Curiosamente, el informe reveló que el chatbot también proporcionaría respuestas en diferentes tonos según el modo establecido. Lawrence Abrams de Bleeping Computer intentó esto presentando una situación triste a Bing, en la que proporcionó consejos para manejar la tristeza en el modo Sydney, mientras que aparentemente expresó más simpatía cuando se configuró en el modo Amigo.

Si bien las revelaciones suenan interesantes, no son indicaciones claras de que Microsoft tenga planes de devolver a Sydney a su estado original. A partir de ahora, como señalaron los usuarios, el chatbot sigue siendo evasivo al responder a consultas provocadoras. Un usuario también rechazado la idea de poder acceder al viejo Sydney a través de la nueva configuración de tono, diciendo que es solo "básicamente un modo en el que puede proporcionar salidas creativas sin personalidad y mostrando 'emociones'". Con esto, es probable que dichas características son solo uno de los pasos de la compañía para hacer que el chatbot sea más fácil de usar, lo que tiene más sentido.

Actualmente, continúan apareciendo informes que demonizan a Sydney, y permitir que continúen será lo último que querría Microsoft. Si bien la extraña personalidad del chatbot sin duda contribuyó a la fama del nuevo Bing, Microsoft no apostará por él para asegurar el futuro de su renovado motor de búsqueda.

Preservar la forma original de Bing puede traducirse en futuros dolores de cabeza para la empresa, que van desde posibles problemas legales hasta pérdidas de inversión. Además, como subrayó repetidamente el gigante del software en anuncios recientes, Bing aún se encuentra en pruebas y mejora continuamente. Parte de ese hecho es un Sydney en evolución, un chatbot en el futuro capaz de aceptar temas más flexibles sin dar respuestas desfavorables. Con esto, si bien es posible que no podamos volver a chatear con ese viejo bot travieso, Microsoft pronto podría brindarnos un mejor Sydney que sea más capaz de generar respuestas seguras tanto para sus usuarios como para su propia imagen.

Más sobre los temas: ai, Inteligencia artificial , Bing, ChatGPT, microsoft, IA abierta

Deje un comentario

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *