OpenAI svela Media Manager, consente ai creatori di controllare come il loro lavoro viene utilizzato per addestrare i modelli AI

Icona del tempo di lettura 2 minuto. leggere


I lettori aiutano a supportare MSpoweruser. Potremmo ricevere una commissione se acquisti tramite i nostri link. Icona descrizione comando

Leggi la nostra pagina informativa per scoprire come puoi aiutare MSPoweruser a sostenere il team editoriale Per saperne di più

Note chiave

  • OpenAI dà priorità allo sviluppo responsabile dell'IA con vantaggi per creatori, utenti ed editori.
  • Il loro strumento “Media Manager” (lanciato nel 2025) consente ai creatori di controllare come il loro lavoro viene utilizzato nella formazione sull’intelligenza artificiale.
  • Le partnership con i creatori di contenuti (collegamento alla fonte migliorato in ChatGPT) e diversi set di dati mirano a un'intelligenza artificiale a tutto tondo.

OpenAI ha condiviso i dettagli relativi al suo approccio allo sviluppo responsabile dell'IA. Il loro obiettivo è garantire che i vantaggi vadano a vantaggio di varie parti interessate, inclusi utenti, creatori ed editori. Questo viene dopo OpenAI ha annunciato che entra a far parte del Comitato Direttivo di C2PA.

Un aspetto principale di questo approccio è il rispetto dei diritti dei creatori di contenuti. OpenAI afferma di riconoscere il potenziale di uso improprio dell'intelligenza artificiale e sta sviluppando uno strumento denominato "Media Manager" (il cui lancio è previsto per il 2025) che consentirà ai creatori di controllare come il loro lavoro viene utilizzato per addestrare i modelli di intelligenza artificiale. Questo strumento può stabilire un nuovo standard nel settore dell’intelligenza artificiale.

Responsabile multimediale:

Scopo:  È uno strumento progettato per offrire ai creatori e ai proprietari di contenuti il ​​controllo su come i loro lavori vengono utilizzati nell'addestramento dei sistemi di intelligenza artificiale.

Funzionalità: I creatori possono probabilmente specificare come desiderano che il loro lavoro venga incluso (o escluso) dai set di dati utilizzati per addestrare i modelli di intelligenza artificiale. Ciò potrebbe comportare la disattivazione totale, il consenso all'uso con attribuzione o l'impostazione di altri parametri.

OpenAI sta inoltre stringendo partnership con creatori di contenuti. I recenti miglioramenti in ChatGPT includono un collegamento sorgente migliorato. Ciò offre agli utenti un contesto migliore e facilita i collegamenti diretti con gli editori. Le collaborazioni con importanti testate giornalistiche come il Financial Times mirano ad arricchire l'esperienza dell'utente su argomenti relativi alle notizie all'interno di ChatGPT.

In termini di sviluppo del modello, OpenAI ha affermato di puntare all’inclusività. Per ottenere ciò, addestrano i loro modelli su diversi set di dati con varie lingue, culture e aree tematiche. Ciò aiuta a mitigare i pregiudizi culturali e garantisce che l’intelligenza artificiale possa servire un pubblico globale più ampio.

La trasparenza è un altro componente chiave dell'approccio di OpenAI. Si dice che comunichino apertamente le loro fonti di dati e si astengano dall'utilizzare dati personali durante la formazione. Gli utenti hanno la possibilità di controllare se i loro dati contribuiscono allo sviluppo di futuri modelli di intelligenza artificiale.

Nel complesso, la visione di OpenAI enfatizza lo sviluppo responsabile dell'IA. Le loro iniziative danno potere ai creatori, danno priorità alla privacy degli utenti e promuovono l'inclusività. Attraverso la collaborazione e la trasparenza, OpenAI si impegna ad avere un impatto positivo su tutti i partecipanti nel campo in continua evoluzione dell’intelligenza artificiale.

Più qui.