Estatísticas de uso indevido de IA: mais de 50 estatísticas e fatos preocupantes
19 minutos. ler
Atualizado em
Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais
Essas estatísticas esclarecedoras sobre o uso indevido da IA mostrarão que nem todas as aplicações da IA são positivas.
A inteligência artificial agora é uma parte essencial de nossas vidas diárias. Da pesquisa médica às ferramentas de aprendizagem dos alunos, ela já está simplificando as indústrias em todos os níveis. Vamos dar uma olhada em algumas de suas quedas.
Estatísticas mais chocantes sobre o uso indevido de IA
Seja trapaça, violação de direitos autorais, intromissão na política ou o pior tipo de deepfakes – a escala e a amplitude do uso indevido da IA irão chocar você:
- 1 em cada 10 tarefas de alunos continha conteúdo gerado por IA em 2023.
- 84% dos trabalhadores podem ter dados da empresa expostos por meio do uso de IA.
- 90% dos artistas acreditam que a lei de direitos autorais é insuficiente para IA.
- 78% das pessoas abrem e-mails de phishing escritos por IA.
- Os e-mails de phishing aumentaram 1,256% desde o ChatGPT lançado.
- 75% temem que deepfakes possam influenciar eleições.
- As pesquisas por deepfakes NSFW aumentaram 5,800% desde 2019.
- 4 milhões de pessoas por mês usam aplicativos deepfake 'Nudify'.
Uso indevido de estatísticas de IA por estudantes
IA na educação tem muitas aplicações legítimas, mas seria tolice pensar que os alunos não o estão usando para fazer o trabalho por eles.
1. 1 em cada 10 tarefas dos alunos continha conteúdo gerado por IA em 2023.
(Fonte: Turnitin)
No ano em que o verificador de plágio Turnitin, focado na educação, lançou seu detector de IA, aproximadamente 1 em cada 10 tarefas de ensino superior contida conteúdo gerado por IA ferramentas como ChatGPT.
Além disso, dos 200 milhões de artigos analisados, mais de 6 milhões foram pelo menos 80 por cento gerados por IA.
2. Quase 50% dos estudantes entrevistados admitiram usar IA de alguma forma nos estudos.
(Fonte: Tyton Partners)
Um artigo de 2023 descobriu que quase metade dos alunos estava usando IA e 12% diariamente.
É ainda mais preocupante que 75% dizem que continuarão a usar IA mesmo que as instituições o proíbam.
3. Alunos e professores estão divididos 50/50 sobre os prós e contras da IA.
(Fonte: Tyton Partners)
A mesma pesquisa descobriu que aproximadamente metade dos alunos e docentes achavam que a IA teria um impacto positivo ou negativo na educação durante a primavera. Uma divisão definitiva sobre os prós e contras.
Curiosamente, no outono, 61% dos professores agora estão a favor da integração da IA, enquanto 39% ainda o consideraram negativo. Isso demonstra uma mudança gradual de opinião.
4. 68% dos professores do ensino fundamental e médio usaram ferramentas de detecção de IA.
(Fonte: Centro para Democracia e Tecnologia)
Em um artigo de 2024, a maioria dos professores de nível escolar disse ter usado detecção de IA, um aumento em relação ao ano anterior.
Além disso, quase dois terços relataram que os alunos enfrentam consequências por supostamente usar IA generativa em suas tarefas. Isso é um aumento de 48% no ano letivo de 2022-2023.
Parece que a IA agora está totalmente inserida no ensino fundamental, médio e superior.
Estatísticas de uso indevido de IA no trabalho
A IA está crescendo em todas as indústrias. Os estudantes não são os únicos que cortam custos. A taxa de trabalhadores que temem a IA ou a usam de maneiras arriscadas é interessante.
5. Mais da metade dos trabalhadores usa IA semanalmente.
(Fonte: Fórum Oliver Wyman)
Com base num estudo realizado com mais de 15,000 trabalhadores em 16 países, mais de 50% dizem que usam IA semanalmente para trabalho.
6. 84% dos trabalhadores podem ter dados da empresa expostos por meio do uso de IA.
(Fonte: Fórum Oliver Wyman)
Do mesmo estudo, 84% dos que usam IA admitem que isso poderiam ter exposto os dados proprietários de sua empresa. Isso representa novos riscos quando se trata de segurança de dados.
7. Apesar das preocupações, 41% dos funcionários pesquisados usariam IA em finanças.
(Fonte: Fórum Oliver Wyman, CNN World)
O risco também se estende às finanças. Embora 61% dos funcionários pesquisados estejam preocupados com a confiabilidade dos resultados de IA, 40% deles ainda o usariam para tomar “grandes decisões financeiras”.
30% compartilharia até mais dados pessoais se isso significasse melhores resultados.
Talvez não seja tão sensato, depois de um trabalhador financeiro em Hong Kong ter sido enganado na transferência de US$ 25 milhões. Criminosos cibernéticos fraudaram o diretor financeiro da empresa em uma videoconferência.
8. 37% dos trabalhadores viram resultados imprecisos de IA.
(Fonte: Fórum Oliver Wyman)
As preocupações com a confiabilidade são justificadas, pois quase 40% dos funcionários dos EUA dizem ter visto “erros cometidos pela IA enquanto ela era usada no trabalho”. Talvez uma preocupação maior seja quantos funcionários agiram com base em informações falsas.
Curiosamente, a maior percentagem de funcionários que reconhecem informações de IA imprecisas é 55% na Índia. Em seguida vêm Cingapura, com 54%, e China, com 53%.
No outro extremo da escala, 31% dos funcionários alemães já viram erros.
9. 69% dos funcionários temem o uso indevido de dados pessoais.
(Fonte: Forrester Consulting via Workday)
Não são apenas os empregadores que enfrentam riscos potenciais dos trabalhadores. Um estudo de 2023 encomendado pela Workday sugere que dois terços dos funcionários estão preocupados com o uso de IA no local de trabalho poderiam colocar seus próprios dados em risco.
10. 62% dos americanos temem o uso de IA em decisões de contratação.
(Fonte: Ipos Consumer Tracker, ISE, Workable)
Antes mesmo que os funcionários entrem no mercado de trabalho, IA em decisões de contratação é uma preocupação crescente.
De acordo com o Ipos, 62% dos americanos acredito que a IA será usada para decidir sobre os candidatos vencedores.
O ISE apoia este receio, uma vez que concluiu 28% dos empregadores contam com IA no processo de contratação.
Além disso, uma pesquisa com 3,211 profissionais em 2023 chegou a um número semelhante, com 950 (29.5%) admitem utilizar IA no recrutamento.
11. Os americanos estão mais preocupados com a IA na aplicação da lei.
(Fonte: Ipos Consumer Tracker)
67% dos americanos entrevistados temem que a IA seja mal utilizada na polícia e na aplicação da lei. Isso é seguido pelo medo de contratação de IA e “pouca supervisão federal na aplicação da IA” (59%).
Estatísticas de uso indevido de direitos autorais de IA
Se a IA só pode confiar em informações existentes, como estilos de arte ou conteúdo de vídeo, onde isso deixa o criador original e o detentor dos direitos autorais?
12. 90% dos artistas acreditam que a lei de direitos autorais é insuficiente para IA.
(Fonte: Livro e Artista)
Em uma pesquisa de 2023, 9 em cada 10 artistas dizem que as leis de direitos autorais estão desatualizadas quando se trata de IA.
Além disso, 74.3% acham que extrair conteúdo da internet para aprendizado de IA é antiético.
Com 32.5% de sua renda anual proveniente de vendas e serviços de arte, 54.6% estão preocupados que a IA possa impactar sua renda.
13. Uma ação coletiva em andamento alega violação de direitos autorais contra artistas.
(Fonte: Data Privacy and Security Insider)
As artistas visuais Sarah Andersen, Kelly McKernan e Karla Ortiz estão em uma batalha legal em andamento contra Meio da jornada, difusão estável, Entre outros.
Um juiz decidiu que os modelos de IA funcionam de forma plausível de uma forma que infringe material protegido por direitos autorais, e a reivindicação dos demandantes pode prosseguir.
14. A Getty Images alega que a Stability AI copiou ilegalmente 12 milhões de imagens.
(Fonte: Reuters)
De artistas individuais a gigantes da fotografia, a Getty Images também está atrás da Difusão Estável.
Em 2023, o fornecedor de fotos de stock entrou com uma ação judicial alegando A Stability AI copiou 12 milhões de suas fotos para treinar seu modelo de IA generativa.
A Getty licencia suas fotos mediante o pagamento de uma taxa, que a gigante de IA de mais de um bilhão de dólares nunca pagou.
O resultado de tais casos pode produzir mudanças drásticas na forma como arte de IA e geradores de fotos operam.
15. Foi proposta uma Política de Direitos Autorais de 10 etapas.
(Fonte: Houston Law Review)
Para abordar a questão da violação de direitos autorais da IA, Matthew Sag propôs um conjunto de 10 boas práticas.
Isso inclui modelos de programação para aprender abstrações em vez de detalhes específicos e filtrar conteúdo muito semelhante a obras existentes. Além disso, registros de dados de treinamento que envolvam material protegido por direitos autorais devem ser mantidos.
Estatísticas sobre fraudes e uso indevido de IA criminosa
De catfishing a pedidos de resgate, golpistas e criminosos usam mal a IA de maneiras cada vez mais assustadoras. Essas estatísticas e fatos pintam um futuro de sofisticação criminosa cada vez maior:
16. 25% das pessoas já sofreram golpes de clonagem de voz por IA.
(Fonte: McAfee)
Os cibercriminosos podem usar IA para clonar as vozes das pessoas e depois usá-las em golpes telefônicos. Em uma pesquisa com 7,000 pessoas em 2023, uma em cada quatro disse ter sofrido um golpe de voz em primeira mão ou conhecer outras pessoas que .
Mais preocupante ainda, 70% dos entrevistados dizem que não estão confiantes se conseguem distinguir a diferença.
17. Golpes de clonagem de voz por IA roubam entre US$ 500 e US$ 15,000.
(Fonte: McAfee)
77% dessas vítimas perderam dinheiro e golpes bem-sucedidos de clonagem de voz por IA não buscam pequenas mudanças.
O inquérito observa que 36% dos alvos perderam entre US$ 500 e US$ 3,000Cerca de 7% foram enganados em valores entre US$ 5,000 e US$ 15,000.
18. 61% dos líderes de segurança cibernética estão preocupados com e-mails de phishing elaborados por IA.
(Fonte: Egress)
Não é apenas a clonagem de voz moderna e elaborada que os criminosos estão usando indevidamente. E-mails de phishing tradicionais também são uma preocupação crescente.
Em 2024, 61% dos líderes de segurança cibernética dizem que o uso de chatbots em phishing os mantém acordados à noite. Isso pode ocorrer porque a IA é precisa e rápida.
Além disso, 52% acham que a IA pode ser benéfica em compromissos da cadeia de suprimentos, e 47% temem que isso possa ajudar em invasões de contas.
19. A IA pode ajudar os golpistas a serem mais convincentes.
(Fonte: Qual)
Todos nós já vimos o golpe estereotipado de e-mail de um príncipe rico oferecendo uma pequena fortuna se você apenas enviar algum dinheiro para ajudá-lo a desbloquear uma transferência maior. Repleto de erros gramaticais e inconsistências, esses golpes agora geralmente ficam enterrados na pasta de spam.
O Mercado Pago não havia executado campanhas de Performance anteriormente nessas plataformas. Alcançar uma campanha de sucesso exigiria Os chatbots de IA são capazes de limpar mensagens fraudulentas que não sejam em inglês para ser mais convincente.
Apesar de ser contra os seus termos, o que foi capaz de produzir mensagens com aparência legítima se passando por PayPal e serviços de entrega usando ChatGPT e Bard.
20. 78% das pessoas abrem e-mails de phishing escritos por IA.
(Fonte: Sosafe)
Para demonstrar ainda mais a eficácia da IA na produção de golpes convincentes, um estudo descobriu que os destinatários abriram quase 80% dos e-mails de phishing escritos por IA.
Embora o estudo tenha encontrado resultados semelhantes em golpes escritos por humanos, as taxas de interação foram às vezes maiores para os e-mails gerados por IA.
Quase dois terços dos indivíduos foram enganados a divulgar detalhes privados em formulários on-line após clicar em links maliciosos.
21. Criar e-mails de phishing é 40% mais rápido com IA.
(Fonte: Sosafe)
Pesquisas também sugerem que, além de fazer com que os golpes pareçam mais convincentes, o poder da IA pode produzi-los mais rapidamente.
Os e-mails de phishing são feitos 40% mais rápido usando IA, o que significa que, no jogo dos números, os cibercriminosos terão mais sucesso e podem ampliar suas operações.
22. Os e-mails de phishing aumentaram 1,256% desde o lançamento do ChatGPT.
(Fonte: SlashNext)
Embora correlação não signifique necessariamente causalidade, IA e phishing andam de mãos dadas. Desde o lançamento do ChatGPT, houve um aumento impressionante Aumento de 1,265% no número de e-mails de phishing enviados.
23. Os cibercriminosos usam suas próprias ferramentas de IA, como WormGPT e FraudGPT.
(Fonte: SlashNext – WormGPT, KrebOnSecurity)
Ferramentas públicas de IA como o ChatGPT têm seu lugar no cibercrime mundo. No entanto, para contornar as restrições, os criminosos desenvolveram suas próprias ferramentas, como WormGPT e FraudGPT.
Evidência sugere WormGPT está implicado em ataques de comprometimento de e-mail comercial (BECs). Ele também pode escrever código malicioso para malwares.
O WormGPT vende acesso à sua plataforma por meio de um canal no aplicativo de mensagens Telegram criptografado.
24. Mais de 200 serviços de hacking de IA estão disponíveis na Dark Web.
(Fonte: Universidade de Indiana via WSJ)
Muitos outros modelos de linguagem maliciosos de grande porte existem. Uma pesquisa da Universidade de Indiana descobriu mais de 200 serviços desse tipo à venda e gratuitos na dark web.
O primeiro desse tipo surgiu poucos meses depois que o próprio ChatGPT foi lançado em 2022.
Um hack comum é chamado injeção imediata, que ignora as restrições dos populares chatbots de IA.
25. A IA detectou milhares de e-mails maliciosos.
(Fonte: WSJ)
Em algumas boas notícias irônicas, empresas como a Abnormal Security estão usando IA para detectar quais e-mails maliciosos são gerados por IA. Ela afirma ter detectado milhares desde 2023 e bloqueou o dobro de ataques de e-mail personalizados no mesmo período.
26. 39% dos indianos descobriram que os encontros online eram golpistas.
(Fonte: McAfee – Índia)
Os cibercriminosos usam o romance como uma fonte para encontrar vítimas e uma pesquisa recente na Índia revelou quase 40% das interações de namoro online envolveram golpistas.
De fotos de perfil falsas comuns a fotos e mensagens geradas por IA, o estudo descobriu que golpistas amorosos são comuns em aplicativos de namoro e mídias sociais.
27. 77% dos indianos pesquisados acreditam que interagiram com perfis gerados por IA.
(Fonte: McAfee – Índia)
O estudo de 7,000 pessoas revelou que 77% dos indianos já se depararam com falsificações Namoro IA perfis e fotos.
Além disso, daqueles que responderam a potenciais interesses amorosos, 26% descobriram que eles eram algum tipo de bot de IA.
No entanto, pesquisas sugerem uma cultura que também pode estar adotando a arte do catfishing com IA.
28. Mais de 80% dos indianos acreditam que o conteúdo gerado por IA gera melhores respostas.
(Fonte: McAfee – Índia, Oliver Wyman Forum)
A mesma pesquisa descobriu que muitos indianos estão usando IA para aumentar sua própria desejabilidade no mundo dos encontros online, mas não necessariamente para aplicar golpes.
65% dos indianos usaram IA generativa para criar ou aumentar fotos e mensagens em um aplicativo de namoro.
E está funcionando. 81% dizem que mensagens geradas por IA geram mais engajamento do que suas próprias mensagens naturais.
Na verdade, 56% planejaram usar chatbots para criar mensagens melhores para seus amantes no Dia dos Namorados em 2024.
Na verdade, outras pesquisas sugerem 28% das pessoas acreditam que a IA pode capturar a profundidade das emoções humanas reais.
No entanto, os indianos devem tomar nota: 60% disseram que se recebessem uma Mensagem de IA de um amante do Dia dos Namorados, eles se sentiriam magoados e ofendidos.
29. Um "golpista do Tinder" roubou cerca de US$ 10 milhões de suas vítimas.
(Fonte: Fortune)
Um dos golpistas de namoro mais famosos foi Shimon Hayut. Sob o pseudônimo Simon Leviev, ele enganou mulheres em US$ 10 milhões usando aplicativos, mídia adulterada e outros truques.
No entanto, depois de aparecer no popular documentário da Netflix, o Tinder Swindler, a situação mudou. Ele era enganado em US$ 7,000 nas redes sociais em 2022.
Relatos afirmam que alguém se passou por um casal no Instagram com laços com Meta. Eles conseguiram fazer com que ele transferisse dinheiro pelo bom e velho PayPal.
Notícias falsas e deepfakes de IA
Notícias falsas e desinformação online não são nenhuma novidade. No entanto, com o poder da IA, está se tornando mais fácil espalhar e difícil distinguir entre conteúdo real, falso e deepfake.
30. Deepfakes aumentaram 10 vezes em 2023.
(Fonte: Sumsub)
À medida que a tecnologia de IA explodiu no mainstream, o mesmo aconteceu com o aumento dos deepfakes. Dados sugerem que o número de deepfakes detectados aumentou 10 vezes em 2023 e só está aumentando neste ano.
Com base nas indústrias, deepfakes relacionados a criptomoedas representaram 88% de todas as detecções.
Com base nas regiões, a América do Norte experimentou uma Aumento de 1,740% em fraudes deepfake.
31. As postagens de notícias falsas geradas por IA aumentaram 1,000% em um mês.
(Fonte: NewsGuard via Washington Post)
Somente em maio de 2023, o número de artigos no estilo notícias falsas aumentou em 1,000%, de acordo com o verificador de fatos NewsGuard.
A pesquisa também descobriu que Sites de desinformação alimentados por IA dispararam de 49 para 600 no mesmo período, com base em seus critérios.
Seja por motivos financeiros ou políticos, a IA está agora na vanguarda de histórias falsas, amplamente compartilhadas nas mídias sociais.
32. O Canadá é o país mais preocupado com notícias falsas sobre IA.
(Fonte: Fonte: Ipos Global Advisor)
Em uma pesquisa com 21,816 cidadãos em 29 países, 65% dos canadenses estavam preocupados que a IA pudesse piorar as notícias falsas.
Os americanos estavam um pouco menos preocupados, com 56%. Um dos motivos alegados é a diminuição do número de veículos de notícias locais no Canadá, levando as pessoas a recorrerem a fontes de informação menos conhecidas.
33% acham que a IA facilitará a geração de notícias e imagens falsas realistas.
(Fonte: Fonte: Ipos Global Advisor)
De todos os cidadãos entrevistados em cada país, 74% sentiram que a IA está dificultando a distinção entre notícias reais e falsas e imagens reais.
89% dos indonésios se sentiram mais fortes sobre o assunto, enquanto os alemães (64%) foram os menos preocupados.
34. 56% das pessoas não conseguem dizer se uma imagem é real ou gerada por IA.
(Fonte: Fórum Oliver Wyman)
A pesquisa sugere mais da metade das pessoas não consegue distinguir imagens falsas geradas por IA e reais.
35. Uma imagem de IA estava entre as 20 postagens mais visualizadas do Facebook no terceiro trimestre de 3.
(Fonte: Misinfo Review)
Acreditemos ou não, as imagens de IA estão em todo lugar. No terceiro trimestre de 2023, uma Imagem de IA obteve 40 milhões de visualizações e mais de 1.9 milhão de engajamentos. Isso o colocou no top 20 das postagens mais visualizadas do período.
36. Uma média de 146,681 pessoas seguem 125 páginas do Facebook repletas de imagens de IA.
(Fonte: Misinfo Review)
Uma média de 146 pessoas seguiram 125 páginas do Facebook que postaram pelo menos 50 imagens geradas por IA cada durante o terceiro trimestre de 3.
Isso não era apenas arte inofensiva, já que os pesquisadores classificaram muitos como spammers, golpistas e fazendas de engajamento.
Ao todo, o as imagens foram visualizadas centenas de milhões de vezes. E este é apenas um pequeno subconjunto dessas páginas no Facebook.
37. 60% dos consumidores viram um deepfake no ano passado.
(Fonte: Jumio)
De acordo com uma pesquisa com mais de 8,000 consumidores adultos, 60% encontraram conteúdo deepfake no ano passado. Enquanto 22% estavam inseguros, só 15% disseram que nunca viram um deepfake.
Claro que, dependendo da qualidade, pode ser que você nem saiba se viu o filme.
38. 75% temem que deepfakes possam influenciar eleições.
(Fonte: Jumio)
Nos Estados Unidos, 72% dos entrevistados temem que deepfakes de IA possam influenciar as próximas eleições.
A maior preocupação vem de Singapura e do México (83% respectivamente), enquanto o Reino Unido está menos preocupado com a interferência eleitoral 60%.
Apesar disso, os entrevistados do Reino Unido sentiram-se menos capazes de detetar uma deepfake de políticos (33%).
Cingapura era o país mais confiante em 60%, o que pode sugerir que o medo está correlacionado com a consciência individual de deepfakes.
39. Deepfakes políticos são os mais comuns.
(Fonte: DeepMind)
O uso indevido mais comum de deepfakes de IA está na esfera política, de acordo com pesquisas da DeepMind e do Jigsaw do Google.
Mais precisamente, 27% de todos os casos relatados tentaram distorcer a percepção do público sobre as realidades políticas.
O 3 principais estratégias são desinformação, cultivo de imagem e difamação.
Além da manipulação de opinião, monetização e lucro, então golpe e fraude foram o segundo e terceiro objetivo mais comum dos deepfakes.
40. Apenas 38% dos estudantes aprenderam a identificar conteúdo de IA.
(Fonte: Centro para Democracia e Tecnologia)
A educação é uma forma de lidar com o impacto dos deepfakes, mas as escolas podem estar falhando. 38% dos estudantes do Reino Unido dizem que aprenderam a identificar imagens, textos e vídeos gerados por IA.
Enquanto isso, 71% dos próprios alunos expressaram o desejo de orientação dos seus educadores.
Conteúdo adulto, criminoso e de IA inapropriado
A indústria adulta sempre esteve na vanguarda da tecnologia e a IA é apenas o próximo passo. Mas o que acontece quando os usuários pagam por conteúdo que eles acham que é real? Ou pior, as pessoas fazem deepfakes de outras sem consentimento?
41. Mais de 143,000 vídeos deepfake NSFW foram carregados em 2023.
(Fonte: Channel 4 News via The Guardian)
Imagens falsas e grosseiras de celebridades sobrepostas a estrelas adultas existem há décadas, mas a IA aumentou sua qualidade e popularidade, além de introduzir vídeos.
À medida que a tecnologia de IA evoluiu rapidamente em 2022/2023, 143,733 novos vídeos deepfake apareceram na web durante o primeiro e terceiro trimestres de 1.
42. As pesquisas por deepfakes NSFW aumentaram em 5,800% desde 2019.
(Fonte: SEMRush via Law News)
Um exemplo da ascensão de deepfakes adultos pode ser encontrado monitorando o volume do mecanismo de busca. De acordo com uma análise usando SEMRush, o termo neste contexto tem aumentou 58 vezes desde 2019.
43. 4,000 celebridades foram vítimas de deepfakes NSFW.
(Fonte: Channel 4 News via The Guardian)
Uma pesquisa nos sites mais populares de deepfake adulto descobriu que a semelhança de aproximadamente 4,000 celebridades foi gerada em imagens e vídeos explícitos.
5 sites receberam mais de 100 milhões de visualizações ao longo de um período de três meses em 2023.
Muitos países estão propondo leis para tornar esse conteúdo ilegal.
44. 96% das imagens deepfake são conteúdo adulto.
(Fonte: Deeptrace)
Já em 2019, 96% dos deepfakes online eram de natureza adulta. 100% eram mulheres (principalmente celebridades) que não deram consentimento.
No outro extremo da escala, no YouTube, onde a nudez é proibida, 61% dos deepfakes eram homens e “baseado em comentários”.
45. Os deepfakes de Taylor Swift se tornaram virais em 2024, com mais de 27 milhões de visualizações.
(Fonte: NBC News)
Em janeiro de 2024, Taylor Swift se tornou a assunto mais visto de deepfakes quando Imagens NSFW AI e vídeos se espalham online, principalmente no Twitter/X.
Em 19 horas, o conteúdo principal recebeu mais de 260,000 curtidas, antes que a plataforma removesse o material e a bloqueasse temporariamente do algoritmo de tendências.
Alguns deepfakes também retrataram Taylor Swift como uma apoiadora de Trump.
46. Jenna Ortega é a segunda celebridade deepfake mais pesquisada no Reino Unido.
(Fonte: SEMRush via Law News)
Com base em dados de pesquisa do Reino Unido, depois de Taylor Swift, a atriz Jenna Ortega é a celebridade mais pesquisada em deepfakes adultos.
Ela é empatado com a influenciadora Brooke Monk e a colega atriz Millie Bobby Brown.
O lista top 20 está lotado de pessoas como a cantora Billie Elish e a streamer Pokimane, mas todas são mulheres.
47. Modelos falsos de IA ganham milhares mensalmente nas plataformas OnlyFans.
(Fonte: Supercreator, Forbes)
OnlyFans e plataformas similares são conhecidas por seu conteúdo adulto, mas agora a IA significa que pessoas reais não precisam se expor totalmente para as câmeras.
Personagens como TheRRRealist e Aitana López ganhar milhares por mês.
Enquanto o primeiro é aberto sobre ser falso, o último tem sido mais tímido, abrindo questões éticas. E eles não são os únicos.
Mesmo Influenciadores de IA fora do espaço adulto, como Olivia C (uma equipe de duas pessoas) ganha a vida por meio de patrocínios e anúncios.
48. 1,500 modelos de IA participaram de um concurso de beleza.
(Fonte: Com fio)
O World AI Creator Awards (WAICA) foi lançado neste verão pela plataforma de influenciadores de IA Fanvue. Um aspecto foi um concurso de beleza de IA, que rendeu a Kenza Layli (ou sua criadora anônima) $10,000.
Mais de 1,500 criações de IA, junto com histórias de fundo e estilos de vida elaborados, entraram no concurso. A persona marroquina Kenza tinha uma mensagem positiva de empoderamento das mulheres e diversidade, mas o uso indevido do deepfake nem sempre é tão "edificante".
49. 6,000 pessoas protestaram contra um escândalo generalizado de deepfake que tinha como alvo professores e alunos.
(Fonte: BBC, The Guardian, Korea Times, CNN)
Uma série de escândalos de deepfake escolar surgiu na Coreia do Sul em 2024, onde centenas de milhares de usuários do Telegram estavam compartilhando deepfakes NSFW de professoras e alunas.
Mais de 60 vítimas foram identificadas, cujas imagens de IA se espalharam nas redes sociais públicas.
Isto conduziu a 6,000 pessoas protestando em Seul e, eventualmente, 800 crimes foram registrados, vários resultando em condenações e aprovação de novas leis.
Eles implicaram em torno de 200 escolas, sendo a maioria das vítimas e agressores adolescentes.
50 milhões de pessoas por mês usam aplicativos deepfake de 'nudez' em mulheres e crianças.
(Fonte: Wired – Nudify)
Além das celebridades, o uso indevido de IA deepfake tem implicações muito mais sombrias.
Em 2020, uma investigação sobre aplicações com tecnologia de IA que “despem” fotos de mulheres e crianças descobriu 50 bots no Telegram para criar deepfakes com sofisticação variada. Dois sozinhos tiveram mais de 400,000 usuários.
51. Mais de 20,000 CSAM gerados por IA foram postados em um único fórum da Dark Web em um mês.
(Fonte: IWF)
Talvez a estatística mais chocante sobre uso indevido de IA venha de um relatório de 2023 de uma organização de proteção. Seus investigadores descobriram dezenas de milhares de CSAM gerados por IA postados em apenas um fórum na dark web ao longo de um mês.
O relatório observa que isso aumentou em 2024 e essas imagens de IA também aumentaram na web clara.
Desenhos animados, animações e pseudofotografias dessa natureza são ilegais no Reino Unido.
Embrulhar
Apesar da adoção da IA em muitos campos, ainda é muito o oeste selvagem. O que a sociedade considera apropriado e deveria haver mais regulamentações?
Desde estudantes gerando tarefas ou uso arriscado no local de trabalho até golpes realistas e deepfakes ilegais, a IA tem muitas aplicações preocupantes.
Conforme explorado nessas estatísticas de uso indevido de IA, talvez seja hora de repensar para onde queremos que essa tecnologia chegue.
Você está preocupado com o uso indevido? Deixe-me saber nos comentários abaixo!
Fontes:
1. Turnitin
3. Centro para Democracia e Tecnologia
5. CNN Mundo
6. Consultoria Forrester via Workday
7. Rastreador de Consumidor Ipos
8. ISE
9. Trabalhável
10. livro e artista
11. Privacidade e Segurança de Dados Insider
12. Reuters
14. McAfee
15. Saída
16. Tão seguro
17. Barra Próxima
19. KrebOnSegurança
20. indianoUniversidade Iana através do WSJ
21. WSJ
22. McAfee – Índia
23. Fortune
24. Soma
25. NewsGuard através do Washington Post
27. Crítica Misinfo
28. Jumio
29. DeepMind
30. Centro para Democracia e Tecnologia
31. Canal 4 Notícias via The Guardian
32. Deeptrace
33. NBC News
35. SEMRush via Notícias Jurídicas
36. Supercriador
37. Forbes
38. Wired
39. BBC
40. The Guardian
41. BBC 2
42. Korea Times
43. CNN
45. IWF
Fórum de usuários
Mensagens 1