Які кроки вживає OpenAI, щоб обмежити використання інструментів ШІ для політичних кампаній?

Значок часу читання 2 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Рішення OpenAI запровадити інструменти для боротьби з дезінформацією напередодні виборів у різних країнах є відповіддю на потенційне зловживання технологією, як-от ChatGPT і DALL-E 3, для політичних кампаній. Компанія стурбована ризиком того, що дезінформація, спричинена ШІ, підриває демократичний процес, особливо під час виборів.

Один з ключових аспектів OpenAIСтратегія компанії полягає в тому, щоб обмежити використання своїх технологій для політичних кампаній і лобіювання, доки не стане відомо більше про потенційний вплив персоналізованого переконання.

Компанія визнає необхідність розуміння ефективності своїх інструментів і активно працює над рішеннями для забезпечення відповідального використання. Це включає в себе розробку інструментів для забезпечення надійного атрибуції тексту, згенерованого ChatGPT, і надання користувачам можливості визначити, чи було зображення створено за допомогою DALL-E 3.

OpenAI планує запровадити цифрові облікові дані Coalition for Content Provenance and Authenticity, щоб покращити методи ідентифікації та відстеження цифрового вмісту. Роблячи це, OpenAI прагне вирішити проблеми щодо автентичності контенту, створеного за допомогою моделей ШІ.

Компанія також вживає заходів для того, щоб її моделі, такі як DALL-E 3, мали «огорожі», щоб запобігти створенню зображень реальних людей, зокрема політичних кандидатів.

Розробка та впровадження інструментів для боротьби з дезінформацією представляють постійні зусилля з пом’якшення негативного впливу передових технологій ШІ на суспільство та демократичні процеси.

більше тут.

Детальніше про теми: openAI