Microsoft explica por qué los LLM alucinan e inventan respuestas

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Un reciente intercambio en Twitter entre un usuario y un ejecutivo de Microsoft ha llamado la atención sobre las limitaciones de los grandes modelos de lenguaje (LLM) como Bing y la posibilidad de que se produzcan lagunas de información cuando se depende únicamente de su conocimiento interno.

La discusión surgió de un usuario que informó resultados de búsqueda inexactos en Bing cuando su complemento de búsqueda, que accede a datos web externos, estaba deshabilitado. En respuesta, Mikhail Parakhin, director ejecutivo de Publicidad y Servicios Web de Microsoft, reconoció la posibilidad de que los LLM “inventen cosas” en tales situaciones.

Explicó que cuando se les priva de la vasta información disponible a través de la web, los LLM a veces pueden recurrir a su base de conocimientos interna, una colección de texto y código utilizado para la capacitación, para generar respuestas. Sin embargo, es posible que esta generación interna no siempre sea precisa o no esté alineada con la realidad fáctica, lo que genera posibles discrepancias en los resultados de búsqueda en comparación con los obtenidos con el complemento de búsqueda habilitado.

Para mí, esto plantea preguntas importantes sobre la transparencia y la precisión en las búsquedas basadas en LLM, especialmente cuando las fuentes de datos externas no están disponibles. Cuando los LLM generan respuestas sin acceder a datos externos, los usuarios deben recibir una indicación clara de la fuente de la información y las posibles limitaciones.

Si bien proporcionar respuestas es valioso, los LLM deben priorizar la información confiable en lugar de llenar los vacíos de conocimiento con generaciones internas potencialmente inexactas. Explorar enfoques alternativos, como indicar incertidumbre, sugerir más investigaciones o simplemente afirmar que no hay una respuesta disponible, podría aumentar la confianza y prevenir la difusión de información errónea.

Por lo tanto, no es de extrañar por qué la gente prefiere ChatGPT a Bing Chat/Copilot.

Y por estas razones, personalmente prefiero usar Bard porque Google ha proporcionado una funcionalidad donde Bard permite a los usuarios saber si se hace referencia a la información desde otro lugar o no, lo que facilita que los usuarios confíen en la información.

Más sobre los temas: Chat de Bing