Facebook, Instagram e Threads, redes sociais da Meta, empresa de Mark Zuckerberg, começam nesta terça-feira, 18, os testes das “notas da comunidade” nos EUA. O recurso, semelhante ao que já existe no X (antigo Twitter), vai permitir que usuários adicionem contexto a postagens, com o objetivo de combater a desinformação nas plataformas. A iniciativa marca o fim da parceria da empresa com agências de checagem de fatos.
Os testes iniciais ficam restritos a um grupo de até 200 mil pessoas, que podem escrever e avaliar notas sobre conteúdos compartilhados nas redes sociais. A implementação será gradual, e, num primeiro momento, as notas não estarão visíveis para todos os usuários. Segundo a Meta, a expansão para um público mais amplo dependerá da eficácia do sistema e da participação da comunidade.
Com o novo modelo, qualquer usuário com mais de 18 anos e conta ativa há pelo menos seis meses poderá contribuir, desde que tenha um número de telefone cadastrado ou utilize a verificação em dois fatores. As notas terão limite de 500 caracteres e precisarão incluir um link para uma fonte de comprovação. Além disso, as avaliações serão feitas de forma anônima, de forma a prevenir quaisquer ataques ao autor.
Inicialmente, as notas da comunidade estarão disponíveis em seis idiomas: inglês, espanhol, chinês, vietnamita, francês e português. A empresa planeja expandir o recurso para outros países no futuro, mas ainda não há previsão de lançamento fora dos EUA. Até lá, a parceria com agências de checagem de fatos continuará ativa em outros mercados, incluindo o Brasil.

A Meta afirma que o sistema será colaborativo e que não haverá interferência direta da empresa na seleção das notas exibidas. As contribuições só serão publicadas caso um grupo diversificado de usuários concorde que elas fornecem um contexto relevante. Caso haja discordância significativa, a nota não será incluída na postagem até que se alcance um consenso mais amplo.
A implementação das notas da comunidade ocorre no contexto de uma mudança de estratégia da Meta na moderação de conteúdo. Desde 2016, a empresa mantinha parcerias com agências de checagem de fatos para avaliar postagens consideradas enganosas.
No entanto, o CEO da Meta, Mark Zuckerberg, tem defendido uma abordagem mais aberta à liberdade de expressão, movimento que vinha crescendo desde as ações coordenadas de censura das redes sociais e do governo de Joe Biden, especialmente para conter informações sobre a pandemia de covid-19 e os atos que resultaram na invasão do Congresso norte-americano em janeiro de 2021.
Zuckerberg criticou “tribunais secretos” de censura de redes sociais na América Latina
Zuckerberg, ao fazer uma defesa veemente da liberdade de expressão e anunciar o fim da censura e da moderação de conteúdo em suas redes sociais, em janeiro, criticou a interferência de governos na moderação de conteúdos e chegou a mencionar que países da América Latina operam “tribunais secretos” para censurar redes sociais. A decisão de substituir os checadores independentes por um sistema de moderação coletiva reforça essa mudança de postura da companhia.
Diferentemente das verificações de fatos anteriores, as notas da comunidade não vão restringir o alcance de postagens que receberem correções ou contextualizações. A Meta argumenta que esse modelo é menos suscetível a campanhas organizadas para manipular a moderação e acredita que pode alcançar uma escala maior do que o programa anterior.
A tecnologia utilizada na ferramenta se baseia no código aberto do sistema do X, criado em 2021. O algoritmo analisa padrões de comportamento dos usuários e busca garantir que as avaliações reflitam uma diversidade de opiniões. A Meta pretende aprimorar esse sistema conforme recebe feedbacks dos participantes e observa seu funcionamento na prática.
Redação Oeste, com informações da Agência Estado