A influência da IA ​​e dos deepfakes na realidade e no futuro

Ícone de tempo de leitura 5 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

manequim, placa de circuito, rosto

Em parceria com a ExpressVPN

Os recentes avanços na inteligência artificial estão fazendo mudanças significativamente convincentes na vida dos homens atuais. Hoje, podemos ver como a IA pode facilmente executar codificação, redação e, acima de tudo, geração de conteúdo em questão de segundos. Essas mesmas capacidades impressionantes, no entanto, são a própria maldição da IA. De acordo com o Provedores VPN, muitos estão usando IA para gerar mídia sintética para desinformação, e os deepfakes agora estão começando a se espalhar como fogo em todo o mundo.

Os especialistas vêm experimentando a IA há décadas, mas o recente grande impulso da Microsoft para a tecnologia despertou o interesse da indústria em investir mais em tais criações. Logo após a inauguração de seu Bing com tecnologia ChatGPT motor de busca, o Google contra-atacou usando Bardo. Ao contrário de seu concorrente, no entanto, o Google ainda está implementando um limite estrito para o acesso ao teste Bard, com especialistas especulando que isso se deve ao medo da empresa do que a IA pode fazer nas mãos erradas.

Isso é verdade no caso de outros produtos de tecnologia de IA em desenvolvimento. Por exemplo, o modelo de linguagem VALL-E da Microsoft, atualmente indisponível publicamente, pode imitar a voz e as emoções de uma pessoa para sintetizar discursos personalizados. Requer apenas uma gravação de três segundos como prompt acústico, mas pode produzir uma mensagem diferente usando a voz do locutor original.

Embora o público em geral ainda não tenha acesso às criações mencionadas acima, elas já contam com contrapartidas oferecidas por pequenas empresas de tecnologia. Isso permitiu que não apenas usuários comuns, mas também agentes mal-intencionados usassem as ferramentas da maneira que desejassem. Com isso, não é mais surpreendente que diferentes relatórios tenham surgido recentemente sobre pessoas sendo enganadas e enganadas com a ajuda da IA.

Esses relatórios enfatizavam especificamente o uso de vozes geradas por IA que imitavam suas vítimas. Em uma história compartilhada com business Insider neste mês, uma mãe teria recebido uma ligação de alguém que afirmava ser um sequestrador exigindo um resgate de $ 50,000 por sua filha de 15 anos. Descrevendo a ligação recebida, a mãe disse que era “100%” a voz da filha.

“Era completamente a voz dela. Foi a inflexão dela. Era assim que ela teria chorado. Nunca duvidei nem por um segundo que era ela”, disse a mãe, que depois descobriu que a ligação era uma farsa e que a filha estava na verdade com o marido.

O mesmo incidente envolvendo voz de IA foi vivenciado por um casal do Canadá, que infelizmente perdeu $ 21,000 de um golpista no telefone. De acordo com O Washington Post, o golpista se fez passar por advogado e filho do casal usando uma voz gerada por IA e disse que o dinheiro seria usado para honorários advocatícios após alegar que o filho matou um diplomata em um acidente de carro.

Além das vozes, outras formas de mídia generativa produzida por IA também podem enganar qualquer pessoa – por exemplo, imagens falsas e vídeos deepfake. Embora não haja relatórios atuais mostrando golpistas usando-os para obter ganhos financeiros, seu efeito pode ser generalizado para o público em geral. Recentemente, algumas imagens geradas por IA de personalidades famosas circularam na web. Algumas incluem fotos mostrando o Papa Francisco em uma jaqueta da moda, o ex-presidente Donald Trump sendo preso e Elon Musk segurando a mão de seu rival e CEO da GM, Mary Barra, durante um encontro. Enquanto isso, em março de 2022, um vídeo deepfake do presidente ucraniano Volodymyr Zelensky apareceu, pedindo aos cidadãos ucranianos que se rendessem à Rússia.

Embora os materiais tenham sido rapidamente identificados como falsos, sua presença inegavelmente enganou o público e causou confusão temporária para muitos. Mesmo modelo e autor Chrissy Teigen foi vítima das fotos do papa. No entanto, o efeito dessa mídia sintética pode ser mais sério à medida que a IA continua a se desenvolver, especialmente nestes tempos em que mais empresas de tecnologia gastam bilhões de dólares para moldar a criação de IA perfeita. Quando chegar a hora, a IA poderá ser explorada para distorcer a realidade que todos conhecem, o que não é impossível. Ainda mais, pode até ser usado para controlar e influenciar o público, resultando em diferentes questões políticas, sociais e morais em todo o mundo.

Isso fica evidente em um vídeo deepfake durante as eleições de meio de mandato de 2018, mostrando Barack Obama difamando Donald Trump. O conteúdo foi originalmente destinado a alertar o mundo online sobre os perigos das notícias falsas na web, mas repercutiu negativamente. Isso causou raiva entre vários apoiadores de Trump e prejudicou involuntariamente a imagem dos indivíduos usados ​​no material.

Agora, imagine o efeito de tais mídias generativas se elas fossem especificamente projetadas para influenciar e manipular opinião e promover propaganda para o público. Os resultados podem ser drásticos. Isso pode ser verdade especificamente em países onde a mídia e a informação estão sendo censuradas por governos restritivos, como Bielorrússia, China, Egito, Rússia, Irã, Coreia do Norte, Turquemenistão, Emirados Árabes Unidos, Uganda, Iraque, Turquia, Omã e outros países predominantemente islâmicos. . Alguns recorrem ao uso de VPNs para acessar conteúdo, sites e serviços bloqueados geograficamente para se manterem atualizados. No entanto, o acesso VPN não é totalmente possível nesses locais, pois eles contornam a censura na Internet e até bloqueiam sites relacionados a serviços VPN. Com isso, você pode imaginar o futuro dessas áreas com acesso limitado a notícias internacionais e seu governo tendo o poder de qual conteúdo online permitir. Em seguida, adicione a possibilidade de uma IA de geração de conteúdo mais perfeita no futuro, e o público deve achar mais difícil discernir o que é verdade e o que não é.

Grupos da indústria e empresas de tecnologia de IA já estão em movimento para delinear políticas que orientarão o uso de ferramentas de IA. A Partnership on AI, por exemplo, fornece recomendações para instituições e indivíduos que constroem ferramentas de mídia sintética ou simplesmente para aqueles que distribuem tais materiais. No entanto, empresas privadas e organizações sem fins lucrativos não são as únicas necessárias aqui. Os legisladores também devem criar um conjunto concreto de regras que os construtores de IA e os usuários finais serão obrigados a observar. No entanto, essas leis futuras serão eficientes o suficiente para aproveitar o poder da IA ​​e impedir que as pessoas a explorem? Devemos ver isso em breve.

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *