Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Facebook removeu quantidade absurda de posts contendo discurso de ódio em 2020

Por| 13 de Maio de 2020 às 11h55

Link copiado!

Pixabay
Pixabay
Tudo sobre Facebook

Exatos 14,3 milhões de postagens contendo discurso de ódio ou associadas a organizações de ódio foram deletadas pelo Facebook no primeiro trimestre de 2020 graças a denúncias por parte dos usuários, informou a empresa em seu blog corporativo. De acordo com o texto, o volume representa um aumento significativo na atuação de moderação automática da rede social, que, diz ela, promoveu a remoção dos posts problemáticos de forma automática graças a um “aprimoramento na tecnologia”.

O post comprova o aumento no número de denúncias em números expressos: no primeiro trimestre de 2020 foram 9,6 milhões de posts apagados que traziam discurso de ódio (versus 5,7 milhões no último trimestre de 2019). Postagens feitas por ou em associação a entidades racistas ou de outros preconceitos chegaram à marca de 4,7 milhões de remoções (contra 1,6 milhão no último trimestre de 2019).

Continua após a publicidade

Segundo o Facebook, o aprimoramento no sistema automático de remoção de posts problemáticos é o que levou a esse aumento. Pelas palavras da empresa, o sistema de moderação tornou-se capaz de identificar textos e imagens com maior precisão, permitindo que denúncias feitas pelos usuários tivessem uma avaliação mais precisa e assertiva. Anunciadas em setembro de 2020, uma série de mudanças no algoritmo de controle de moderação trouxe essa melhoria no combate a grupos extremistas, terroristas e de ódio. Os 14,3 milhões de posts removidos referem-se às três principais plataformas da empresa: Facebook, WhatsApp e Instagram.

O Facebook também informou que adicionou alertas de conteúdo em cerca de 50 milhões de posts que traziam informações duvidosas relacionadas à COVID-19 e à atual pandemia do novo coronavírus (SARS-CoV-2). Tal mudança entrou em efeito no começo deste ano e consiste, basicamente, em não remover fake news sobre o tema, mas posicionar alertas visuais evidentes ao usuário que compartilhar essas informações na rede, de que se trata de um conteúdo falso ou desmentido.

No Instagram, a empresa celebra o aumento no percentual de detecção — de 57,6% para 68,9% —, eliminando aproximadamente 175 mil postagens no primeiro trimestre. Neste caso, o Facebook informa que o Instagram é mais capacitado para não apenas identificar posts problemáticos, mas determinar quando um problema difere do outro).

Continua após a publicidade

"Por exemplo, nós percebemos que violações cometidas por grupos de ódio são mais propensas a envolverem memes, ao passo que propaganda terrorista é comumente distribuída por um braço centralizado de mídia de uma organização e inclui identificação visual específica [branding]”, diz o post no blog oficial. “Identificar esses padrões nos ajudou a continuar com um ajuste mais fino em nossos sistemas de detecção de ódio organizado e conteúdo terrorista”.

Finalmente, o Facebook também confirmou no post que seus sistemas de moderação são capazes de detectar textos incorporados em imagens e vídeos para avaliar também o contexto de um post, bem como empregar uma tecnologia que identifica conteúdos idênticos ou bem próximos de material previamente banido — isso vale para textos, fotos, vídeos e áudio.

Brasil protagonista

Os esforços do Facebook em coibir a desinformação em sua rede social não se limitam apenas a algoritmos e detecção de conteúdo, mas também trazem ações mais humanizadas: nesta semana, a empresa anunciou o estabelecimento de um Comitê de Supervisão (ou “Oversight Board”), que auxilia a empresa a responder questionamentos referentes à permissividade ou banimento de conteúdos, como e porque algo é removido ou mantido etc. A medida foi anunciada em 2019, mas apenas agora é que os integrantes do grupo e seus papéis foram definidos.

Continua após a publicidade

O Comitê é formado por expoentes da política internacional, luta pelos direitos humanos, liberdade de expressão e acesso à informação e até mesmo o direito. Neste último tópico, aliás, o rosto por trás da ação é brasileiro: o advogado Ronaldo Lemos, professor da Faculdade de Direito da Universidade do Estado do Rio de Janeiro, é membro do comitê, juntamente de Helle Thorning-Schmidt (ex-primeira-ministra da Dinamarca), Afia Asantewaa Asare-Kyei (gerente de programa da Open Society Initiative for West Africa) e Maina Kiai (diretor de parcerias e alianças globais da Human Rights Watch).

O time deve ajudar o Facebook a tomar decisões sobre o que é permitido ou não em temos de liberdade de fala dentro da plataforma. Esse é um problema enfrentado não só pela rede social de Mark Zuckerberg, mas também por outras gigantes do meio.

Continua após a publicidade

“Esperamos que eles tomem decisões com as quais nós, no Facebook, possamos nem sempre concordar – mas este é o ponto: eles são totalmente autônomos em seu exercício de julgamento independente. Também acreditamos que os membros possam sofrer críticas, mas o sucesso a longo prazo depende de termos participantes capazes de trazer diferentes perspectivas e conhecimentos para a mesa”, aponta o vice-presidente global de comunicação e relacionamentos da empresa, Nick Clegg.

Fonte: Facebook