Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Facebook mostra sucesso na remoção de conteúdos nocivos em suas plataformas

Por| 13 de Novembro de 2019 às 19h40

Link copiado!

Reprodução
Reprodução
Tudo sobre Facebook

Nesta quarta-feira (13), o Facebook publicou a quarta edição do Relatório de Aplicação dos Padrões da Comunidade, mostrando todos os processos feitos dentro da companhia durante o segundo e terceiro trimestres de 2019.

Entre as métricas divulgadas pela empresa, que incluem 10 políticas do Facebook e quatro do Instagram, estão os seguintes tópicos:

  • Prevalência - A frequência de visualizações de um conteúdo que viola as políticas do Facebook;
  • Conteúdo que sofreu sanções - Referente à quantidade de conteúdos acionados por violar as práticas de uso;
  • Taxa Proativa - Analisa os conteúdos removidos e o quanto foram detectados pelo sistema antes que algum usuário denunciasse;
  • Conteúdo contestado - Quantos conteúdos receberam uma apelação do usuário após o Facebook ter tomado uma medida;
  • Conteúdo restaurado - Mede a quantidade de conteúdos que foram restaurados após uma sanção inicial.

Suicídio e automutilação

Continua após a publicidade

Em relação ao tópico de suicídio e automutilação, cerca de 2 milhões de conteúdos do tipo foram acionados ao Facebook no segundo trimestre deste ano, sendo 96,1% deles detectados de forma proativa. Já no terceiro trimestre, a companhia observou um aumento na remoção de conteúdo, finalizando o período em 2,5 milhões, com 97,1% removidos proativamente.

No Instagram, a companhia relata um progresso semelhante com a detecção de 835 mil conteúdos neste tópico no segundo trimestre de 2019, 77,8% detectados proativamente, e 845 mil conteúdos removidos no terceiro trimestre, 79,1% deles de maneira proativa.

O Facebook aproveitou também para obter dados sobre a prevalência de conteúdo de suicídio e automutilação, além de vendas de drogas e armas, estipulando limites máximos de quantas vezes alguém veria publicações que violem suas políticas.

Continua após a publicidade

Propaganda terrorista

Em relação à propaganda terrorista presente no Facebook, a taxa de conteúdos detectados e removidos envolvendo práticas do tipo em qualquer organização chegou a 98,5 no Facebook, e 92,2% no Instagram. O plano da companhia, agora, é investir em novas táticas automatizadas no combate ao conteúdo terrorista.

De olho em exploração infantil e outros assuntos proibidos

A empresa também começou a coletar informações referentes à nudez infantil e exploração sexual de crianças, com o objetivo de detectar estes conteúdos rapidamente antes que algum usuário possa vê-los. No Facebook, no terceiro trimestre deste ano, aproximadamente 11,6 milhões de conteúdos do tipo foram removidos, enquanto no primeiro trimestre a quantidade de remoções chegou a 5,8 milhões (92,5% detectados proativamente). Já no Instagram, cerca de 512 mil conteúdos envolvendo crianças foram retirados da plataforma no segundo trimestre, e 754 mil no terceiro (94,6% encontrados de forma proativa).

Continua após a publicidade

Outro tópico analisado pela empresa é a venda ilícita de armas de fogo e drogas, descobrindo que 4,4 milhões de conteúdos sobre drogas no Facebook foram removidos no terceiro trimestre de 2019, 93,8% deles detectados proativamente, e 2,3 milhões de publicações sobre venda de armas de fogo foram removidas no mesmo período, 97,3% deles de forma proativa. Já em relação ao Instagram, cerca de 1,5 milhão de conteúdos de vendas de drogas foram removidos no terceiro trimestre, 95,3 de forma proativa, enquanto 58,6 mil sobre vendas de armas de fogo foram retirados no mesmo período, 91,3% encontrados proativamente.

O Facebook revela que vem trabalhando na detecção proativa de conteúdos nocivos constantemente nos últimos dois anos, usando técnicas que envolvem a combinação de texto e imagem, além do aprendizado de máquina. Mas ainda há o que melhorar.

"Embora estejamos felizes com este progresso, essas tecnologias não são perfeitas e nós sabemos que ainda podem ocorrer erros. É por isso que continuaremos a investir em sistemas que nos permitam melhorar a nossa precisão na remoção de conteúdos que violem nossas políticas ao mesmo tempo em que protegemos conteúdos que discutem ou condenam discursos de ódio", disse a companhia.

Confira o relatório completo.

Continua após a publicidade

Fonte: Facebook Research