O Conselho de Supervisão da Meta disse nesta quinta-feira (25) que as regras da empresa “não eram suficientemente claras” ao proibir representações sexualmente explícitas de pessoas reais geradas por IA e pediu mudanças para impedir que tais imagens circulem em suas plataformas.
O conselho, que é financiado pela Meta, mas opera de forma independente, emitiu sua decisão após analisar duas falsificações pornográficas de mulheres famosas criadas com inteligência artificial e postadas no Facebook e no Instagram, segundo informa a Reuters.
A Meta disse que revisaria as recomendações do conselho e forneceria uma atualização sobre quaisquer mudanças adotadas.
No seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações com a privacidade.
O conselho descobriu que ambas as imagens violavam a regra da Meta que proíbe o “photoshop sexualizado depreciativo”, que a empresa classifica como uma forma de intimidação e assédio, e disse que a Meta deveria tê-las removido imediatamente.
- No caso envolvendo a indiana, a Meta não conseguiu revisar o relato do usuário sobre a imagem em 48 horas, fazendo com que a denúncia fosse fechada automaticamente sem nenhuma ação tomada.
- O usuário recorreu, mas a empresa novamente se recusou a agir e só mudou de rumo depois que o conselho aceitou o caso.
- No caso da celebridade americana, os sistemas da Meta removeram automaticamente a imagem.
- “As restrições a este conteúdo são legítimas”, afirmou o conselho. “Dada a gravidade dos danos, remover o conteúdo é a única forma eficaz de proteger as pessoas afetadas”.
O conselho recomendou que a Meta atualizasse sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra “photoshop” é muito restrito, e a proibição deveria abranger uma ampla gama de técnicas de edição, incluindo IA generativa.
O conselho também criticou a Meta por se recusar a adicionar a imagem da indiana a um banco de dados que permite remoções automáticas como a que ocorreu no caso da americana.
A Meta teria respondido ao conselho que depende da cobertura da mídia para determinar quando adicionar imagens ao banco de dados, uma prática que o conselho chamou de “preocupante”.
“Muitas vítimas de imagens íntimas falsas não são conhecidas do público e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar todos os casos”, afirmou o conselho.