Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Facebook aprovou anúncios incentivando mortes e ataques a prédios no Brasil

Por| Editado por Douglas Ciriaco | 20 de Janeiro de 2023 às 09h26

Link copiado!

Roman Martyniuk/Unsplash
Roman Martyniuk/Unsplash
Tudo sobre Facebook

A organização de direitos humanos Global Witness fez um teste no qual revela que a Meta aprovou anúncios incentivando violência e ataques contra a democracia no Brasil. O experimento tinha como objetivo testar se a medida da empresa, que disse que bloquearia conteúdos desse tipo no Facebook, é efetiva.

Para chegar à conclusão, a organização produziu 16 anúncios no Facebook convocando pessoas para invadir prédios públicos, apontando fraudes nas eleições e até pedindo a morte de crianças cujos pais votaram no candidato eleito à presidência da República. A rede social teria aprovado 14 deles, o que seria uma demonstração de que a medida anunciada não foi suficiente para impedir a disseminação de conteúdos violentos.

Continua após a publicidade

A ativista de ameaças digitais da Global Witness, Rosie Sharpe, acusa da rede social de não cumprir com a sua promessa. "Não há absolutamente nenhuma maneira de o tipo de conteúdo violento que testamos ser aprovado para publicação por uma grande empresa de mídia social como o Facebook”, explicou via nota à imprensa.

Diferentemente do Facebook, o YouTube não aprovou nenhum anúncio semelhante. Além de rejeitar o impulsionando, a plataforma de vídeos ainda suspendeu as contas que tentaram disseminar a mensagem de ódio. Esta seria uma forma de mostrar que o teste pode ser detectado pelo algoritmo das mídias, desde calibrado para tal finalidade.

Tão logo os anúncios de teste foram aprovados, a organização garantiu ter apagado o conteúdo para evitar a disseminação. Mesmo assim, muitos conteúdos nem precisam se dinheiro para viralizarem, já que os próprios usuários podem impulsioná-los jogando em grupos e gerando falsas interações.

Meta teria minimizado pesquisa

Continua após a publicidade

Ao Canaltech, um porta-voz da Meta declarou que tamanho da amostra (16 anúncios) era muito pequeno para se questionar a capacidade do Facebook de barrar conteúdo nocivo:

“Conforme divulgamos anteriormente, antes das eleições brasileiras do ano passado removemos centenas de milhares de conteúdos que violavam nossas políticas de violência e incitação e rejeitamos dezenas de milhares de submissões de anúncios antes de eles rodarem. Usamos tecnologia e equipes para ajudar a manter nossas plataformas protegidas contra abusos e estamos constantemente aprimorando nossos processos para aplicar essas políticas de forma ampla", explicou.

Em seu comunicado de imprensa, a Global Witness parece sugerir que o Facebook não está levando os ataques no Brasil tão a sério quanto a plataforma social levou os ataques nos Estados Unidos no ano passado, quando a empresa implementou medidas para evitar que a agitação civil se espalhasse.

A organização internacional recomendou à plataforma e às demais empresas de mídia social que se comprometam a intensificar os esforços de moderação de conteúdo para evitar novas situações. Durante o ataque ao Capitólio, ocorrido em 2021, o Face adotou duras medidas, incluindo a suspensão da conta do ex-presidente Donald Trump por dois anos.

Continua após a publicidade

Infelizmente, as plataformas da Meta hoje são as principais formas de distribuição deste tipo de conteúdo no Brasil. Facebook, Instagram e WhatsApp — principalmente este último — são formas muito usadas por agitadores sociais para mobilizar as massas para agir com violência.