sexta-feira, novembro 22, 2024
InícioCiência e tecnologianúmero de casos quase quadruplica em cinco anos

número de casos quase quadruplica em cinco anos

A extorsão sexual cresce junto ao aumento das imagens geradas por inteligência artificial (IA). O número de “fake nudes” – imagens falsas de nudez – nos dez principais sites que hospedam pornografia gerada por IA aumentou em 290% desde 2018, conforme revelado pelo jornal The Washington Post. O veículo também apontou um aumento de 149% no número de vítimas deste tipo de extorsão sexual desde 2019.

Para quem tem pressa:

  • O número de “fake nudes” (imagens falsas de nudez) em sites de pornografia gerada por IA aumentou 290% desde 2018, segundo o jornal The Washington Post;
  • Houve também um aumento de 149% no número de vítimas de extorsão sexual relacionada a esse tipo de conteúdo desde 2019;
  • O crescimento desse fenômeno se deve ao fácil acesso e uso de ferramentas de IA que conseguem “despir” pessoas em fotos ou trocar rostos em vídeos de forma quase imperceptível;
  • Além disso, o número de casos de extorsão sexual aumentou – o número de vítimas cresceu 140% desde 2019 até setembro de 2023, de acordo com o FBI.

Ainda não se sabe exatamente quantas das imagens usadas para extorsão sexual são geradas por IA. Mas as ferramentas para criar esses deepfakes são fáceis de usar e acessar – e já causam problemas até em escolas (inclusive do Brasil).

IA e as ‘fake nudes’

Mãos robóticas sobre teclado
(Imagem: Thinkstock)

A inteligência artificial tem impulsionado um aumento sem precedentes de imagens e vídeos pornográficos falsos em 2023, segundo o jornal. Isso ocorre por conta do aumento do número de ferramentas de IA baratas e fáceis de usar que conseguem “despir” pessoas em fotografias ou trocar um rosto num vídeo pornográfico de forma (quase) imperceptível.

Quem apontou o aumento de 290% de “fake nudes” nos dez principais sites que hospedam fotos de pornografia gerada por IA foi Genevieve Oh, analista do setor. E, atualmente, as vítimas têm poucos recursos para se defender.

Nos Estados Unidos, ainda não há uma lei federal que regule deepfakes pornográficos, e apenas alguns estados promulgaram regulamentações. O decreto voltado para IA, assinado recentemente pelo presidente dos EUA Joe Biden, recomenda, mas não exige, que as empresas rotulem fotos, vídeos e áudios gerados por IA para indicar trabalho gerado por computador.

Enquanto isso, acadêmicos de direito alertam que imagens falsas de IA podem não se enquadrar nas proteções de direitos autorais para semelhanças pessoais, porque elas provêm de conjuntos de dados popularizados por milhões de imagens.

Raio-x do problema

Pessoa prestes a tocar linhas de programação de inteligência artificial
(Imagem: NicoElNino/Shutterstock)

Ao analisar milhões de imagens, o software de IA pode prever melhor como um corpo parecerá nu e sobrepor fluidamente um rosto em um vídeo pornográfico, disse Gang Wang, especialista em IA na Universidade de Illinois em Urbana-Champaign.

Embora muitos geradores de imagens de IA bloqueiem os usuários de criar material pornográfico, o software de código aberto, como o Stable Diffusion, torna seu código público, permitindo que desenvolvedores amadores adaptem a tecnologia – muitas vezes para fins escusos. A Stability AI, criadora do Stable Diffusion, não deu retorno ao pedido de comentário do Washington Post.

Uma vez que esses aplicativos se tornam públicos, eles usam programas de indicação que incentivam os usuários a compartilhar essas fotos geradas por IA nas redes sociais em troca de dinheiro, disse Oh.

Quando ela examinou os dez principais sites que hospedam imagens falsas pornográficas, descobriu que mais de 415 mil foram enviadas em 2023, recebendo quase 90 milhões de visualizações.

Os vídeos pornográficos gerados por IA também explodiram na web. Após vasculhar os 40 sites mais populares de vídeos falsificados, Oh descobriu que mais de 143 mil vídeos foram adicionados em 2023 – um número que supera todos os novos vídeos de 2016 a 2022. Os vídeos falsos receberam mais de 4,2 bilhões de visualizações, descobriu Oh.

O FBI alertou sobre um aumento na extorsão sexual por parte de golpistas, exigindo pagamento ou fotos em troca de não distribuir as imagens. Até setembro, mais de 26,8 mil pessoas tinham sido vítimas desse tipo de extorsão, informou o FBI ao jornal.

‘Fake nudes’ em escolas

(Imagem: Wavebreakmedia/iStock)

Um grupo de alunos da Westfield High School, em Nova Jersey (EUA), usou um aplicativo de IA para montar fotos de meninas da escola em imagens pornográficas. Chamada de deepfake, a prática foi descoberta e alertada por algumas das vítimas, que souberam das fotos após um dos garotos decidir contar o motivo do “burburinho” na escola. 

A polícia de Westfield, cidade de Nova Jersey, investiga o caso, que deve demorar meses para ser concluído. A situação foi parar também no gabinete do estado — principalmente ante a corrida de governos para regular o uso da tecnologia: um senador estadual pediu aos promotores do condado para acompanhar o caso de perto. 

Uma escola do Brasil, no Rio de Janeiro, também enfrentou esse tipo de problema. De acordo com a CNN, pais de alunos do Colégio Santo Agostinho receberam uma circular da direção da escola alertando para o uso de ferramentas de IA na criação de montagens de fotos de alunas. 

Mais de 20 vítimas do assédio já foram identificadas. O colégio se colocou à disposição das famílias das alunas e afirmou que tomará medidas disciplinares cabíveis, em âmbito escolar. A instituição alertou também que os pais prestem mais atenção na vida virtual dos filhos. 

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui