Publicidade

Esforços da Meta em proteger jovens são lamentavelmente ineficazes, diz revisão

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
pvproductions/freepik
pvproductions/freepik

Uma análise conduzida por especialistas e liderada pelo ex-engenheiro sênior da Meta, Arturo Béjar, aponta que a maioria das ferramentas de segurança lançadas no Instagram não cumpre seu papel de proteger crianças e adolescentes. O estudo avaliou 47 recursos da plataforma e concluiu que 64% deles são ineficazes, classificando-os como facilmente contornáveis ou até mesmo já descontinuados.

Segundo os pesquisadores, as medidas anunciadas pela Meta criam uma “falsa sensação de segurança”, ao prometer proteção contra conteúdos nocivos e interações inadequadas que, na prática, continuam acessíveis a jovens usuários.

Para chegar às conclusões, os envolvidos criaram contas de teste simulando três perfis: um adolescente, um pai e um adulto mal-intencionado. Assim, observaram o funcionamento real dos mecanismos de proteção.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O relatório revelou que adultos ainda conseguiam enviar mensagens privadas para menores, apesar da promessa de bloqueio automático, uma falha corrigida apenas depois do período de testes. Além disso, adolescentes podiam iniciar conversas com estranhos em seções como Reels, expondo-se a riscos de contato indesejado.

Outro problema grave foi identificado no recurso “palavras ocultas”. Mesmo diante de mensagens contendo insultos explícitos e incentivos à automutilação, não houve qualquer bloqueio ou aviso ao destinatário. Ferramentas de gerenciamento de tempo também pareceram ter sido abandonadas ou renomeadas, dificultando sua utilização.

Conteúdos nocivos e algoritmos problemáticos

O estudo também apontou que o algoritmo do Instagram continuava a recomendar conteúdo sexual, violento ou relacionado a transtornos alimentares e uso de drogas. O sistema de autocompletar da busca ainda sugeria termos ligados a suicídio e automutilação, ampliando o risco de que adolescentes em situação de vulnerabilidade encontrassem conteúdo prejudicial.

A revisão contou com a colaboração de entidades como a Molly Rose Foundation e a David’s Legacy Foundation, fundadas por pais que perderam seus filhos após exposição prolongada a ambientes tóxicos online. De acordo com o The Guardian, em resposta, a Meta rejeitou as conclusões da revisão, afirmando que o relatório “distorce” a eficácia das ferramentas disponíveis. A empresa alega que contas de jovens estão configuradas para reduzir conteúdos sensíveis, limitar contatos indesejados e oferecer opções claras de controle aos pais.

VÍDEO | IA DA META CHEGOU NO WHATSAPP!

Continua após a publicidade

Fonte: The Guardian