Publicidade

Facebook barrou mais de 1,8 bilhão de spam até agora em 2022

Por| Editado por Douglas Ciriaco | 17 de Maio de 2022 às 18h08

Link copiado!

James Yarema/Unsplash
James Yarema/Unsplash
Tudo sobre Facebook

Nesta terça (17), o Facebook divulgou o Relatório de Aplicação dos Padrões da Comunidade referentes ao primeiro trimestre de 2022. As ferramentas de moderação da rede social barraram 1,8 bilhão de peças de conteúdo de spam, valor ainda maior do que o obtido no período anterior (1,2 bilhão), enquanto a detecção proativa de conteúdo relacionados a bullying e assédio alcançou 67%.

“A prevalência de conteúdos prejudiciais no Facebook e no Instagram permaneceu relativamente consistente — e diminuiu em algumas de nossas políticas, principalmente devido à melhoria e expansão da nossa tecnologia de detecção proativa”, documentou a Meta.

Continua após a publicidade

No Facebook, a detecção barrou 21,7 milhões de peças de conteúdo de violência ou incitação, valor que, segundo a Meta, representa um aumento de 12,4 milhões quando comparado ao último trimestre de 2021. A empresa acredita que a maior taxa se dá pelo “aprimoramento e expansão da tecnologia detecção proativa”.

Quanto ao bullying e assédio, o pente fino ainda mais profundo foi consequência da implementação de tecnologias de inteligência artificial que melhor avaliam o contexto de determinadas expressões. A ferramenta permite identificar, com mais precisão, quando uma palavra é usada de forma pejorativa.

O destaque do relatório quanto ao Instagram se dá pelo bloqueio de 1,8 milhão de peças de conteúdo relacionado a drogas — um aumento de 1,2 milhão em comparação ao período passado.

Mais rígido, mas transparente

Continua após a publicidade

Apesar de ter ferramentas ainda mais rigorosas para detectar conteúdo irregular, o Facebook também investe em tornar todo o processo mais transparente. “Sabemos que erros serão cometidos e, por isso, tem sido igualmente importante investir, também no aprimoramento de nossas políticas ao longo do caminho, além de melhorar nossa aplicação e as ferramentas que oferecemos aos usuários”, disse a empresa.

O relatório ressalta que os motivos que levam ao banimento de uma publicação estão mais claros, bem como a capacidade de contestação, caso os usuários acreditem que seja necessária uma nova análise. Para complementar, o Facebook também passou a avaliar a eficácia de sistema de penalidades, como o impacto gerado por avisos adicionais antes de aplicar restrições mais severas (como restrições de interações ou suspensão do perfil).

Mudanças para o futuro

A fim de incrementar ainda mais na clareza e na aplicação de políticas de moderação de conteúdo, o Facebook compartilhará as medidas que serão tomadas para melhorar a precisão das decisões.

Continua após a publicidade

“Embora a prevalência nos ajude a medir o que perdemos, também estamos trabalhando no desenvolvimento de métricas robustas em torno dos erros cometidos” disse a companhia. A rede social acredita que os avanços possibilitarão o progresso contínuo em questões sociais, além de cumprir obrigações regulatórias com mais eficiência.