Que medidas a OpenAI está tomando para limitar o uso de ferramentas de IA em campanhas políticas?
2 minutos. ler
Publicado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
A decisão da OpenAI de introduzir ferramentas para combater a desinformação antes das eleições em vários países é uma resposta ao potencial uso indevido da sua tecnologia, como ChatGPT e DALL-E 3, para campanhas políticas. A empresa está preocupada com o risco de a desinformação e a desinformação provocadas pela IA minarem o processo democrático, especialmente durante os períodos eleitorais.
Um aspecto fundamental OpenAIA estratégia da empresa é restringir o uso da sua tecnologia para campanhas políticas e lobby até que se saiba mais sobre o impacto potencial da persuasão personalizada.
A empresa reconhece a necessidade de compreender a eficácia das suas ferramentas e está a trabalhar ativamente em soluções para garantir uma utilização responsável. Isso inclui o desenvolvimento de ferramentas para fornecer atribuição confiável ao texto gerado pelo ChatGPT e permitir que os usuários detectem se uma imagem foi criada usando o DALL-E 3.
A OpenAI planeja implementar as credenciais digitais da Coalition for Content Provenance and Authenticity para aprimorar os métodos de identificação e rastreamento de conteúdo digital. Ao fazer isso, a OpenAI pretende abordar preocupações sobre a autenticidade do conteúdo gerado usando modelos de IA.
A empresa também está tomando medidas para garantir que seus modelos, como o DALL-E 3, tenham “guarda-corpos” para evitar a geração de imagens de pessoas reais, incluindo candidatos políticos.
O desenvolvimento e a implantação de ferramentas para combater a desinformação representam esforços contínuos para mitigar o impacto negativo das tecnologias avançadas de IA na sociedade e nos processos democráticos.
Mais aqui.
Fórum de usuários
Mensagens 0