Meta AI dice que el intento de asesinato de Trump no ocurrió. Luego, culpa a la alucinación.

Llama 3.1, que impulsa el chatbot, tiene una fecha límite de datos de diciembre de 2023.

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información

Notas clave

  • La IA de Meta manejó mal un evento político y negó incorrectamente un intento de asesinato de Trump.
  • El vicepresidente Joel Kaplan se disculpó y atribuyó el error a “alucinaciones” de IA y datos obsoletos.
  • El modelo Llama 3.1 de Meta, al igual que otras IA, tiene problemas con la precisión en tiempo real y las últimas noticias.
Meta IA

Meta fue criticada recientemente por manejar mal el contenido político. El gigante tecnológico de Menlo Park previamente colocó una etiqueta de verificación de datos en una foto genuina del expresidente Trump después de su intento de asesinato, y su Meta AI ha reclamado incorrectamente que el intento no se produjo.

Joel Kaplan, vicepresidente de política global de Meta, se disculpó en una nueva publicación de blog, atribuyendo el reciente error de IA de la compañía (en el que el asistente afirmó incorrectamente que el intento de asesinato del expresidente Donald Trump no ocurrió) a "alucinaciones" en las respuestas de la IA.

También dice que Meta AI, al igual que cualquier otro chatbot de IA con recortes de conocimiento como ChatGPT, no siempre ha sido el más preciso cuando se trata de noticias de última hora debido a la dependencia de datos obsoletos. Para evitar errores sobre este tipo de noticias, Meta inicialmente bloqueó las respuestas sobre el tema, pero aún enfrentó problemas con inexactitudes.

Este fenómeno se denomina "alucinaciones" en el mundo de la IA. Es un caso en el que un modelo de lenguaje genera información incorrecta o engañosa que no estaba presente en sus datos de entrenamiento. Esto sucede porque la IA predice respuestas basadas en patrones en los datos con los que fue entrenada, en lugar de precisión objetiva en tiempo real, por lo que tuvo que ladrar y formular respuestas.

El chatbot Meta AI, que está disponible en Facebook, Instagram y WhatsApp, funciona con lo último modelo llama 3.1 con corte de conocimiento en diciembre de 2023. ChatGPT de OpenAI, por otro lado, es en octubre de 2023.

Foro de usuarios

mensajes de 0