O Conselho de Supervisão da Meta defendeu, nesta quinta-feira (2), que as empresas de tecnologia adotem diretrizes para enfrentar a violência e a desinformação eleitoral.
Batizado de Oversight Board, esse grupo foi lançado em 2020 e é financiado pela dona do Facebook e do Instagram. O relatório divulgado agora, no entanto, faz um apelo a todas as big techs.
Leia mais
De acordo com a Meta, o órgão possui uma estrutura de governança, permitindo que ele tome decisões independentes. Independente a ponto de a Meta ser investigada por disseminar fake news na Europa, e o conselho praticamente admitir a culpa, recomendando melhorias no processos internos.
Entre as sugestões apresentadas no documento estão investimento em moderação de conteúdo e o estabelecimento de padrões mínimos para eleições em todos os países.
Um levantamento aponta que quase metade da população mundial vai às urnas neste ano. No Brasil, por exemplo, as disputas serão municipais. Nos Estados Unidos e na Índia, por outro lado, o embate será nacional. No caso americano, o provável enfrentamento do presidente Joe Biden com o ex-presidente Donald Trump deve dividir a nação.
E o conselho da Meta entende que as redes sociais não devem interferir ilegalmente no processo. Para isso, o grupo definiu 9 diretrizes que deveriam ser seguidas por todas as companhias. Uma espécie de cartilha.
O relatório publicado nesta quinta é o primeiro em que o órgão, formado por 22 especialistas de diferentes países, tem como destinatário as companhias de tecnologia de um modo geral.
As informações são do jornal Folha de S.Paulo.
Quais são as 9 diretrizes
Você pode conferir o documento completo aqui neste link.
O Olhar Digital reproduz agora, com pequenas edições (para deixar o texto mais enxuto) os 9 tópicos apresentados pelo conselho independente da Meta:
- 1) “As empresas de redes sociais devem dedicar recursos suficientes à moderação de conteúdos antes, durante e depois das eleições.”
- 2) “As empresas devem estabelecer padrões básicos de plataforma global para eleições em todos os lugares. (…) As plataformas que não cumprem os seus objetivos devem ser responsabilizadas.”
- 3) “O discurso político que incita a violência não pode passar despercebido. Devem ser priorizadas uma escalada mais rápida do conteúdo para revisão humana e sanções duras contra abusadores reincidentes.”
- 4) “As plataformas devem proteger-se contra os perigos de permitir que os governos utilizem a desinformação para suprimir o discurso crítico.”
- 5) “As políticas que suprimem a liberdade de expressão devem especificar os danos reais que estão a tentar prevenir, para garantir que sejam necessários e proporcionais aos danos.”
- 6) “É necessário definir padrões claros para conteúdo gerado por IA ou “deepfakes” e outros tipos de conteúdo manipulado, como falsificações baratas.”
- 7) “Os jornalistas, os grupos da sociedade civil e a oposição política devem ser mais bem protegidos contra o abuso online.”
- 8) “As empresas devem ser abertas e transparentes sobre as medidas que tomam para prevenir danos e os erros que cometem.”
- 9) “As campanhas coordenadas destinadas a espalhar a desinformação ou a incitar a violência para minar os processos democráticos devem ser abordadas como uma prioridade.”
Meta investigada na Europa
Como já dissemos no começo do texto, apesar dessas recomendações feitas pelo conselho da empresa, a própria Meta é investigada na União Europeia por suspeita de disseminar desinformação.
Os reguladores europeus estão preocupados com a eficácia da Meta em combater notícias falsas e conteúdos enganosos que podem amplificar divisões políticas e influenciar os resultados eleitorais.
A investigação também visa abordar falhas no sistema de moderação da empresa, exigindo ações mais eficazes para identificar e eliminar atores maliciosos e conteúdo problemático.
Você pode ler mais informações sobre o caso neste outro texto do Olhar Digital.