Facebook removeu quantidade absurda de posts contendo discurso de ódio em 2020
Por Rafael Arbulu | 13 de Maio de 2020 às 11h55
Exatos 14,3 milhões de postagens contendo discurso de ódio ou associadas a organizações de ódio foram deletadas pelo Facebook no primeiro trimestre de 2020 graças a denúncias por parte dos usuários, informou a empresa em seu blog corporativo. De acordo com o texto, o volume representa um aumento significativo na atuação de moderação automática da rede social, que, diz ela, promoveu a remoção dos posts problemáticos de forma automática graças a um “aprimoramento na tecnologia”.
O post comprova o aumento no número de denúncias em números expressos: no primeiro trimestre de 2020 foram 9,6 milhões de posts apagados que traziam discurso de ódio (versus 5,7 milhões no último trimestre de 2019). Postagens feitas por ou em associação a entidades racistas ou de outros preconceitos chegaram à marca de 4,7 milhões de remoções (contra 1,6 milhão no último trimestre de 2019).
- Leia mais: Facebook é a plataforma líder em buscas por notícias sobre o coronavírus
- Leia mais: Serviços do Facebook somam quase 3 bi de usuários em meio à COVID-19
Segundo o Facebook, o aprimoramento no sistema automático de remoção de posts problemáticos é o que levou a esse aumento. Pelas palavras da empresa, o sistema de moderação tornou-se capaz de identificar textos e imagens com maior precisão, permitindo que denúncias feitas pelos usuários tivessem uma avaliação mais precisa e assertiva. Anunciadas em setembro de 2020, uma série de mudanças no algoritmo de controle de moderação trouxe essa melhoria no combate a grupos extremistas, terroristas e de ódio. Os 14,3 milhões de posts removidos referem-se às três principais plataformas da empresa: Facebook, WhatsApp e Instagram.
O Facebook também informou que adicionou alertas de conteúdo em cerca de 50 milhões de posts que traziam informações duvidosas relacionadas à COVID-19 e à atual pandemia do novo coronavírus (SARS-CoV-2). Tal mudança entrou em efeito no começo deste ano e consiste, basicamente, em não remover fake news sobre o tema, mas posicionar alertas visuais evidentes ao usuário que compartilhar essas informações na rede, de que se trata de um conteúdo falso ou desmentido.
No Instagram, a empresa celebra o aumento no percentual de detecção — de 57,6% para 68,9% —, eliminando aproximadamente 175 mil postagens no primeiro trimestre. Neste caso, o Facebook informa que o Instagram é mais capacitado para não apenas identificar posts problemáticos, mas determinar quando um problema difere do outro).
"Por exemplo, nós percebemos que violações cometidas por grupos de ódio são mais propensas a envolverem memes, ao passo que propaganda terrorista é comumente distribuída por um braço centralizado de mídia de uma organização e inclui identificação visual específica [branding]”, diz o post no blog oficial. “Identificar esses padrões nos ajudou a continuar com um ajuste mais fino em nossos sistemas de detecção de ódio organizado e conteúdo terrorista”.
Finalmente, o Facebook também confirmou no post que seus sistemas de moderação são capazes de detectar textos incorporados em imagens e vídeos para avaliar também o contexto de um post, bem como empregar uma tecnologia que identifica conteúdos idênticos ou bem próximos de material previamente banido — isso vale para textos, fotos, vídeos e áudio.
Brasil protagonista
Os esforços do Facebook em coibir a desinformação em sua rede social não se limitam apenas a algoritmos e detecção de conteúdo, mas também trazem ações mais humanizadas: nesta semana, a empresa anunciou o estabelecimento de um Comitê de Supervisão (ou “Oversight Board”), que auxilia a empresa a responder questionamentos referentes à permissividade ou banimento de conteúdos, como e porque algo é removido ou mantido etc. A medida foi anunciada em 2019, mas apenas agora é que os integrantes do grupo e seus papéis foram definidos.
O Comitê é formado por expoentes da política internacional, luta pelos direitos humanos, liberdade de expressão e acesso à informação e até mesmo o direito. Neste último tópico, aliás, o rosto por trás da ação é brasileiro: o advogado Ronaldo Lemos, professor da Faculdade de Direito da Universidade do Estado do Rio de Janeiro, é membro do comitê, juntamente de Helle Thorning-Schmidt (ex-primeira-ministra da Dinamarca), Afia Asantewaa Asare-Kyei (gerente de programa da Open Society Initiative for West Africa) e Maina Kiai (diretor de parcerias e alianças globais da Human Rights Watch).
- Leia mais: Facebook cria comitê para supervisionar a moderação de conteúdo
- Leia mais: Brasileiro integra Comitê de Supervisão de liberdade no Facebook
O time deve ajudar o Facebook a tomar decisões sobre o que é permitido ou não em temos de liberdade de fala dentro da plataforma. Esse é um problema enfrentado não só pela rede social de Mark Zuckerberg, mas também por outras gigantes do meio.
“Esperamos que eles tomem decisões com as quais nós, no Facebook, possamos nem sempre concordar – mas este é o ponto: eles são totalmente autônomos em seu exercício de julgamento independente. Também acreditamos que os membros possam sofrer críticas, mas o sucesso a longo prazo depende de termos participantes capazes de trazer diferentes perspectivas e conhecimentos para a mesa”, aponta o vice-presidente global de comunicação e relacionamentos da empresa, Nick Clegg.
Fonte: Facebook