Meta e TikTok são acusadas de permitir conteúdo nocivo para ganhar engajamento
Por Jaqueline Sousa • Editado por Jones Oliveira |

Um documentário da BBC intitulado Inside the Rage Machine (Por Dentro da Máquina de Ódio, em tradução livre) acendeu um alerta vermelho na comunidade de segurança digital: segundo relatos de ex-funcionários da Meta e do Tiktok, as empresas permitem que conteúdos nocivos apareçam no feed dos usuários para ganhar mais engajamento.
- Meta e TikTok coletam dados além do consentimento do usuário
- Zuckerberg diz que sucesso do TikTok foi um risco para a Meta
Durante a investigação, o veículo ouviu pessoas que já foram funcionárias das companhias, que relataram como a Meta e o TikTok assumem riscos de segurança para disputar quem leva a melhor quando o assunto é o nível de interação dos usuários nas plataformas.
Entre os conteúdos impulsionados aparecem questões como violência, misoginia, teorias conspiratórias, chantagem sexual e terrorismo.
O que está por trás da guerra por engajamento
Segundo um engenheiro da Meta, a disputa por engajamento parece algo recorrente nos bastidores.
Falando à BBC, o profissional explicou que recebeu uma orientação direta da direção para que permitisse mais conteúdos nocivos limítrofes nos feeds dos usuários, mas que fizesse isso de maneira “controlada” e dentro das regras das redes. A justificativa para a ordem, de acordo com o engenheiro, era de que “o preço das ações estava em queda”.
Do lado do TikTok, o caso também preocupa. Um funcionário da rede social dos vídeos curtos afirmou ao veículo que, após obter acesso a um painel interno da empresa com reclamações de usuários, encontrou evidências de como colaboradores foram instruídos a priorizar casos políticos para “manter um relacionamento forte” com figuras do meio em vez de acatar denúncias de publicações violentas envolvendo crianças.
Sem controle
Outro ponto mencionado pelo documentário da BBC é como esse favorecimento de conteúdos nocivos para gerar engajamento veio como uma “resposta” ao intenso crescimento do TikTok nos últimos anos. Com um algoritmo treinado para recomendar vídeos que possam interessar o usuário, a popularidade da rede obrigou seus concorrentes a se virar nos 30 para competir com a empresa chinesa.
O Reels do Instagram, por exemplo, foi uma maneira que a Meta encontrou de tentar superar a rival, concentrando boa parte dos materiais nocivos da plataforma. De acordo com Matt Motyl, pesquisador sênior da Meta, comentários feitos em Reels tinham uma prevalência maior de conter discursos de ódio e outros conteúdos de incitação à violência que outras partes do Instagram.
Para ter uma noção do problema, um documento apresentado na reportagem da BBC mostra que as publicações no Reels eram mais nocivas que aquelas publicadas no feed principal, com 75% a mais de bullying e assédio e 19% a mais de discurso de ódio.
Um ex-funcionário da empresa de Mark Zuckerberg complementa esse “descuido” afirmando que a companhia preferiu investir na “contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram a contratação negada de dois especialistas para lidar com a proteção de crianças”.
Ruofan Ding, ex-engenheiro de machine learning do mecanismo de recomendação do TikTok, ainda pontuou que “não há controle sobre o próprio algoritmo de deep learning”, porque “todo conteúdo é apenas um ID, um número diferente”. Ele ressaltou também que a equipe dependia de equipes de segurança para remover publicações nocivas, sugerindo que conteúdos nocivos estariam passando “despercebidos” durante o processo de promoção do algoritmo.
Em resposta às alegações, a Meta afirmou que “qualquer sugestão de que amplia deliberadamente o conteúdo nocivo para ganho financeiro é incorreta”. Já o TikTok disse que as acusações são “fabricadas” e que a empresa investe em tecnologias que impedem a visualização de materiais nocivos na rede social.