¿Qué medidas está tomando OpenAI para limitar el uso de herramientas de IA para campañas políticas?
2 minuto. leer
Publicado el
Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Más información
La decisión de OpenAI de introducir herramientas para combatir la desinformación antes de las elecciones en varios países es una respuesta al posible uso indebido de su tecnología, como ChatGPT y DALL-E 3, para campañas políticas. A la empresa le preocupa el riesgo de que la desinformación impulsada por la IA socave el proceso democrático, especialmente durante los períodos electorales.
Un aspecto clave de OpenAILa estrategia es restringir el uso de su tecnología para campañas políticas y lobby hasta que se sepa más sobre el impacto potencial de la persuasión personalizada.
La empresa reconoce la necesidad de comprender la eficacia de sus herramientas y está trabajando activamente en soluciones para garantizar un uso responsable. Esto incluye el desarrollo de herramientas para proporcionar una atribución confiable al texto generado por ChatGPT y permitir a los usuarios detectar si una imagen se creó con DALL-E 3.
OpenAI planea implementar las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido para mejorar los métodos de identificación y seguimiento del contenido digital. Al hacerlo, OpenAI pretende abordar las preocupaciones sobre la autenticidad del contenido generado utilizando modelos de IA.
La compañía también está tomando medidas para garantizar que sus modelos, como el DALL-E 3, tengan “barandillas” para evitar la generación de imágenes de personas reales, incluidos candidatos políticos.
El desarrollo y despliegue de herramientas para combatir la desinformación representan esfuerzos continuos para mitigar el impacto negativo de las tecnologías avanzadas de IA en la sociedad y los procesos democráticos.
Más aquí.
Foro de usuarios
mensajes de 0