OpenAI przedstawia Menedżera multimediów, który pozwala twórcom kontrolować sposób, w jaki ich praca jest wykorzystywana do uczenia modeli sztucznej inteligencji

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • OpenAI priorytetowo traktuje odpowiedzialny rozwój sztucznej inteligencji z korzyściami dla twórców, użytkowników i wydawców.
  • Ich narzędzie „Media Manager” (wprowadzone na rynek w 2025 r.) pozwala twórcom kontrolować sposób, w jaki ich praca jest wykorzystywana w szkoleniach AI.
  • Współpraca z twórcami treści (ulepszone łączenie źródeł w ChatGPT) i różnorodne zbiory danych mają na celu wszechstronną sztuczną inteligencję.

OpenAI udostępniło szczegóły dotyczące swojego podejścia do odpowiedzialnego rozwoju sztucznej inteligencji. Koncentrują się na zapewnieniu korzyści różnym zainteresowanym stronom, w tym użytkownikom, twórcom i wydawcom. To następuje po OpenAI ogłosił że dołącza do Komitetu Sterującego C2PA.

Głównym aspektem tego podejścia jest poszanowanie praw twórców treści. OpenAI twierdzi, że dostrzega potencjał niewłaściwego wykorzystania sztucznej inteligencji i opracowuje narzędzie o nazwie „Media Manager” (które ma zostać wprowadzone na rynek w 2025 r.), które pozwoli twórcom kontrolować sposób, w jaki ich praca jest wykorzystywana do uczenia modeli sztucznej inteligencji. To narzędzie może wyznaczyć nowy standard w branży AI.

Menedżer mediów:

Cel:  To narzędzie zaprojektowane, aby dać twórcom i właścicielom treści kontrolę nad sposobem wykorzystania ich dzieł w szkoleniach systemów AI.

funkcjonalność: Twórcy prawdopodobnie mogą określić, w jaki sposób chcą, aby ich praca była uwzględniana (lub wykluczana) ze zbiorów danych używanych do uczenia modeli sztucznej inteligencji. Może to obejmować całkowitą rezygnację, zezwolenie na użycie z przypisaniem lub ustawienie innych parametrów.

OpenAI nawiązuje także współpracę z twórcami treści. Ostatnie ulepszenia ChatGPT obejmują ulepszone łączenie źródeł. Zapewnia to użytkownikom lepszy kontekst i ułatwia bezpośrednie połączenia z wydawcami. Współpraca z czołowymi organizacjami informacyjnymi, takimi jak Financial Times, ma na celu wzbogacenie doświadczeń użytkowników w zakresie tematów związanych z wiadomościami w ramach ChatGPT.

Jeśli chodzi o rozwój modelu, OpenAI twierdzi, że stawia na inkluzywność. Aby to osiągnąć, trenują swoje modele na różnych zbiorach danych dotyczących różnych języków, kultur i obszarów tematycznych. Pomaga to złagodzić uprzedzenia kulturowe i gwarantuje, że sztuczna inteligencja będzie mogła służyć szerszej publiczności na całym świecie.

Przejrzystość to kolejny kluczowy element podejścia OpenAI. Mówi się, że otwarcie przekazują źródła danych i powstrzymują się od wykorzystywania danych osobowych podczas szkoleń. Użytkownicy mają możliwość kontrolowania, czy ich dane przyczyniają się do rozwoju przyszłych modeli sztucznej inteligencji.

Ogólnie rzecz biorąc, wizja OpenAI kładzie nacisk na odpowiedzialny rozwój sztucznej inteligencji. Ich inicjatywy wzmacniają pozycję twórców, traktują prywatność użytkowników priorytetowo i promują integrację. Dzięki współpracy i przejrzystości OpenAI stara się wywrzeć pozytywny wpływ na wszystkich uczestników stale rozwijającej się dziedziny sztucznej inteligencji.

Więcej tutaj.