Jaké kroky podniká OpenAI, aby omezila používání nástrojů AI pro politické kampaně?

Ikona času čtení 2 min. číst


Čtenáři pomáhají podporovat MSpoweruser. Pokud nakoupíte prostřednictvím našich odkazů, můžeme získat provizi. Ikona popisku

Přečtěte si naši informační stránku a zjistěte, jak můžete pomoci MSPoweruser udržet redakční tým Dozvědět se více

Rozhodnutí OpenAI zavést nástroje pro boj s dezinformacemi před volbami v různých zemích je reakcí na potenciální zneužití jejích technologií, jako jsou ChatGPT a DALL-E 3, pro politické kampaně. Společnost je znepokojena rizikem dezinformací a dezinformací řízených umělou inteligencí, které podkopávají demokratický proces, zejména během volebních období.

Jeden klíčový aspekt OpenAIStrategií je omezit používání své technologie pro politické kampaně a lobbování, dokud nebude známo více o potenciálním dopadu personalizovaného přesvědčování.

Společnost uznává potřebu porozumět účinnosti svých nástrojů a aktivně pracuje na řešeních, která zajistí odpovědné používání. To zahrnuje vývoj nástrojů, které poskytují spolehlivé přiřazení textu generovanému ChatGPT a umožňují uživatelům zjistit, zda byl obrázek vytvořen pomocí DALL-E 3.

OpenAI plánuje implementovat digitální pověření Coalition for Content Provenance and Authenticity s cílem zlepšit metody identifikace a sledování digitálního obsahu. Tím se OpenAI snaží řešit obavy ohledně autenticity obsahu generovaného pomocí modelů AI.

Společnost také podniká kroky, aby zajistila, že její modely, jako je DALL-E 3, budou mít „zábradlí“, které zabrání generování obrázků skutečných lidí, včetně politických kandidátů.

Vývoj a nasazení nástrojů pro boj s dezinformacemi představuje pokračující úsilí o zmírnění negativního dopadu pokročilých technologií umělé inteligence na společnost a demokratické procesy.

Moře zde.

Více o tématech: openAI