sexta-feira, novembro 22, 2024
InícioCiência e tecnologiaFotos de crianças brasileiras estão sendo usadas para treinar IA

Fotos de crianças brasileiras estão sendo usadas para treinar IA

Um relatório publicado nesta segunda-feira (10) pela ONG Human Rights Watch aponta que 170 fotos e dados pessoais de crianças e adolescentes brasileiros foram usados sem consentimento para treinar ferramentas de inteligência artificial (IA).

Entenda:

  • Um relatório da Human Rights Watch revelou que 170 imagens e dados pessoais de crianças e adolescentes brasileiros foram usados sem permissão para treinar ferramentas de IA;
  • De acordo com a ONG, os conteúdos foram extraídos de blogs pessoais e publicações no YouTube;
  • Dados e fotos das crianças foram incluídos no LAION-B5, dataset usado para treinamento de ferramentas populares de IA – como o Stable Diffusion, gerador de imagens da Stability AI;
  • Além de usar as imagens sem consentimento, o repositório ainda pode revelar informações confidenciais das crianças e adolescentes, como suas localizações ou dados médicos.
170 imagens de crianças e adolescentes foram encontradas em repositório de dados. (Imagem: Young Nova/Shutterstock)

De acordo com o relatório, as imagens teriam sido extraídas de publicações feitas desde meados da década de 90 até mais recentemente, no ano passado, em blogs pessoais e conteúdos do YouTube com poucas visualizações. Dados pessoais e links para as fotos das crianças foram incluídos no LAION-5B, conjunto de dados popularmente usado para o treinamento de IA.

Repositório de dados pode revelar informações pessoais de crianças brasileiras

Criado pela LAION, organização alemã sem fins lucrativos, o LAION-5B é de acesso aberto e foi usado para treinar ferramentas como o Stable Diffusion, gerador de imagens da Stability AI. De acordo com o site oficial da organização, o repositório conta, atualmente, com mais de 5,85 bilhões de pares de imagens e legendas.

Crianças brincando ao ar livre
LAION-B5 pode revelar informações pessoais de crianças e adolescentes. (Imagem: Robert Kneschke/Shutterstock)

Conforme reportado pela Wired, Nate Tyler, porta-voz da LAION, disse que “o LAION-5B foi retirado do ar em resposta a um relatório de Stanford que encontrou links no dataset apontando para conteúdo ilegal na web pública”, e que os esforços da organização estão focados em “remover todas as referências conhecidas a conteúdo ilegal.”

Hye Jung Han, pesquisadora de direitos da criança e tecnologia na Human Rights Watch, teme que o dataset possa revelar informações confidenciais das crianças e adolescentes, como suas localizações ou dados médicos. “Qualquer criança que tenha fotos ou vídeos de si mesma on-line está em risco, porque qualquer pessoa mal-intencionada pode obter essa imagem e usar as ferramentas para manipulá-la como quiser.”

Via Olhar Digital

MAIS DO AUTOR

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui