O Instagram testará recursos que desfocam as mensagens que contêm nudez para proteger adolescentes e evitar que possíveis golpistas os alcancem, anunciou a controladora do aplicativo, Meta, nesta quinta-feira (11).
A companhia é acusada nos Estados Unidos e Europa de tornar seus aplicativos viciantes o que tem causado problemas de saúde mental entre os jovens.
A Meta disse que o recurso de proteção para as mensagens diretas do Instagram usará aprendizado de máquina para analisar se uma imagem enviada contém nudez.
O recurso será ativado por padrão para usuários menores de 18 anos e a empresa notificará os adultos para incentivá-los a ativá-lo.
“Como as imagens são analisadas no próprio dispositivo, a proteção contra nudez também funcionará em bate-papos criptografados de ponta a ponta, nos quais a Meta não terá acesso a essas imagens, a menos que alguém decida denunciá-las para nós”, disse a empresa.
Ao contrário dos aplicativos Messenger e WhatsApp, as mensagens diretas no Instagram não são criptografadas, mas a empresa disse que planeja implementar a criptografia no serviço.
A Meta também disse que está desenvolvendo tecnologia para ajudar a identificar contas que podem estar potencialmente envolvidas em golpes de extorsão e que está testando novas mensagens para usuários que podem ter interagido com tais contas.
Procuradores de 33 Estados dos EUA processaram a empresa em outubro, dizendo que ela enganou repetidamente o público sobre os riscos em suas plataformas.
Na Europa, a Comissão Europeia tem buscado informações sobre como a Meta protege as crianças de conteúdo ilegal e prejudicial.
Compartilhe: