OpenAI presenta Media Manager, permite a los creadores controlar cómo se utiliza su trabajo para entrenar modelos de IA

Icono de tiempo de lectura 2 minuto. leer


Los lectores ayudan a respaldar a MSpoweruser. Es posible que obtengamos una comisión si compra a través de nuestros enlaces. Icono de información sobre herramientas

Lea nuestra página de divulgación para descubrir cómo puede ayudar a MSPoweruser a sostener el equipo editorial. Leer más

Notas clave

  • OpenAI prioriza el desarrollo responsable de la IA con beneficios para creadores, usuarios y editores.
  • Su herramienta “Media Manager” (que se lanzará en 2025) permite a los creadores controlar cómo se utiliza su trabajo en la capacitación en IA.
  • Las asociaciones con creadores de contenido (vínculos de fuentes mejorados en ChatGPT) y diversos conjuntos de datos apuntan a una IA integral.

OpenAI ha compartido detalles sobre su enfoque para el desarrollo responsable de la IA. Su enfoque se centra en garantizar que los beneficios sean para las distintas partes interesadas, incluidos usuarios, creadores y editores. Esto viene después de OpenAI anunció que se une al Comité Directivo de C2PA.

Un aspecto principal de este enfoque es el respeto a los derechos de los creadores de contenidos. OpenAI dice que reconoce el potencial de uso indebido de la IA y está desarrollando una herramienta llamada "Media Manager" (cuyo lanzamiento está previsto para 2025) que permitirá a los creadores controlar cómo se utiliza su trabajo para entrenar modelos de IA. Esta herramienta puede establecer un nuevo estándar dentro de la industria de la IA.

Administrador de medios:

Finalidad:  Es una herramienta diseñada para brindar a los creadores y propietarios de contenido control sobre cómo se utilizan sus trabajos en el entrenamiento de sistemas de inteligencia artificial.

Funcionalidad: Es probable que los creadores puedan especificar cómo quieren que su trabajo se incluya (o excluya) de los conjuntos de datos utilizados para entrenar modelos de IA. Esto podría implicar excluirse por completo, permitir el uso con atribución o establecer otros parámetros.

OpenAI también se está asociando con creadores de contenido. Las mejoras recientes en ChatGPT incluyen enlaces de fuentes mejorados. Esto brinda a los usuarios un mejor contexto y facilita las conexiones directas con los editores. Las colaboraciones con destacadas organizaciones de noticias como el Financial Times tienen como objetivo enriquecer la experiencia del usuario en temas relacionados con las noticias dentro de ChatGPT.

En términos de desarrollo de modelos, OpenAI dijo que apostaría por la inclusión. Para conseguirlo, entrenan sus modelos en diferentes conjuntos de datos con diversos idiomas, culturas y áreas temáticas. Esto ayuda a mitigar los prejuicios culturales y garantiza que la IA pueda servir a una audiencia global más amplia.

La transparencia es otro componente clave del enfoque de OpenAI. Se dice que comunican abiertamente sus fuentes de datos y se abstienen de utilizar datos personales durante la formación. Los usuarios tienen la opción de controlar si sus datos contribuyen al desarrollo de futuros modelos de IA.

En general, la visión de OpenAI enfatiza el desarrollo responsable de la IA. Sus iniciativas empoderan a los creadores, priorizan la privacidad de los usuarios y promueven la inclusión. A través de la colaboración y la transparencia, OpenAI se esfuerza por generar un impacto positivo en todos los participantes dentro del campo en constante evolución de la IA.

Más esta página.