OpenAI onthult Media Manager, waarmee makers kunnen bepalen hoe hun werk wordt gebruikt om AI-modellen te trainen

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Belangrijkste opmerkingen

  • OpenAI geeft prioriteit aan verantwoorde AI-ontwikkeling met voordelen voor makers, gebruikers en uitgevers.
  • Met hun ‘Media Manager’-tool (lancering in 2025) kunnen makers bepalen hoe hun werk wordt gebruikt in AI-training.
  • Partnerschappen met makers van inhoud (verbeterde bronkoppeling in ChatGPT) en diverse datasets streven naar een goed afgeronde AI.

OpenAI heeft details gedeeld over zijn aanpak van verantwoorde AI-ontwikkeling. Hun focus is erop gericht ervoor te zorgen dat de voordelen voor verschillende belanghebbenden gelden, waaronder gebruikers, makers en uitgevers. Dit komt na OpenAI aangekondigd dat het toetreedt tot de stuurgroep van C2PA.

Een belangrijk aspect van deze aanpak is het respecteren van de rechten van makers van inhoud. OpenAI zegt dat het het potentieel voor misbruik van AI erkent en een tool ontwikkelt met de naam “Media Manager” (gepland voor lancering in 2025) waarmee makers kunnen bepalen hoe hun werk wordt gebruikt om AI-modellen te trainen. Deze tool kan een nieuwe standaard zetten binnen de AI-industrie.

Media manager:

Doel:  Het is een tool die is ontworpen om makers en contenteigenaren controle te geven over hoe hun werken worden gebruikt bij het trainen van AI-systemen.

Functionaliteit: Makers kunnen waarschijnlijk specificeren hoe ze willen dat hun werk wordt opgenomen (of uitgesloten) van datasets die worden gebruikt om AI-modellen te trainen. Dit kan inhouden dat u zich volledig afmeldt, gebruik met toeschrijving toestaat of andere parameters instelt.

OpenAI gaat ook partnerschappen aan met makers van inhoud. Recente verbeteringen in ChatGPT omvatten verbeterde bronkoppeling. Dit geeft gebruikers een betere context en vergemakkelijkt directe verbindingen met uitgevers. Samenwerkingen met prominente nieuwsorganisaties zoals de Financial Times hebben tot doel de gebruikerservaring over nieuwsgerelateerde onderwerpen binnen ChatGPT te verrijken.

Qua modelontwikkeling zegt OpenAI voor inclusiviteit te gaan. Om dit te bereiken trainen ze hun modellen op verschillende datasets met verschillende talen, culturen en vakgebieden. Dit helpt culturele vooroordelen te verminderen en zorgt ervoor dat AI een breder mondiaal publiek kan bedienen.

Transparantie is een ander belangrijk onderdeel van de aanpak van OpenAI. Er wordt gezegd dat ze openlijk communiceren over hun gegevensbronnen en tijdens de training geen persoonlijke gegevens gebruiken. Gebruikers hebben de mogelijkheid om zelf te bepalen of hun data bijdragen aan de ontwikkeling van toekomstige AI-modellen.

Over het algemeen benadrukt de visie van OpenAI een verantwoorde AI-ontwikkeling. Hun initiatieven geven makers meer mogelijkheden, geven prioriteit aan de privacy van gebruikers en bevorderen de inclusiviteit. Door samenwerking en transparantie streeft OpenAI ernaar een positieve impact te hebben op alle deelnemers binnen het steeds evoluerende veld van AI.

Meer hier.