Facebook rebate críticas sobre demora para retirar conteúdo do EI do ar

Por Redação | 10 de Dezembro de 2015 às 08h35

Os atentados que atingiram Paris no último dia 13 de novembro detonaram uma onda sem precedentes de combate e militância contra grupos terroristas, principalmente o Estado Islâmico. E um dos alvos de crítica sobre essa questão foi o próprio Facebook, acusado de demorar para retirar do ar conteúdos relacionados ao EI, como vídeos de recrutamento ou cenas violentas, como as execuções realizadas pelos radicais.

Essa atitude, considerada como inação por boa parte dos usuários, é citada em uma petição do site Change.org, que já conta com mais de 140 mil apoiadores e pede uma ação mais rápida e direta do Facebook. A autora do abaixo-assinado, Julie Guilbault, afirma que os algoritmos automáticos do serviço são capazes de detectar nudez e “conteúdos impróprios” rapidamente, tirando-os do ar de imediato, mas quando se trata do Estado Islâmico, a demora sempre é maior. Em resposta, porém, a empresa disse que nada é tão simples assim.

De acordo com a diretora global de políticas para produtos, Monica Bickert, o Facebook conta com um time de moderação que trabalha 24 horas por dia para avaliar as denúncias feitas pelos usuários – que não são poucas, como dá para imaginar. Alguns tipos de conteúdo recebem prioridade, como é o caso de vídeos e imagens associados a terrorismo, e estes são retirados no ar no momento em que são validados como tal.

Além disso, Bickert afirma que a rede social trabalha ao lado de governos, autoridades e órgãos de imprensa para denunciar abusos e receber informações sobre o que está acontecendo, de forma a agir melhor em grandes crises. Nessas situações, o time de moderação pode ser reconfigurado para dar prioridade a casos específicos ou trabalhar apenas nele. Foi o que aconteceu, por exemplo, nos dias que se seguiram aos atentados na França.

Por outro lado, a executiva diz que a equipe trabalha também para garantir voz e espaço aos oprimidos, já que muitas violações de direitos humanos ocorrem em lugares distantes e, muitas vezes, fora do alcance das câmeras. Bickert se mostra contra um banimento unilateral de conteúdo violento e se põe ao lado da moderação, já que, muitas vezes, o compartilhamento desse tipo de material pode servir para denunciar abusos e não fazer apologia ao terrorismo ou outras práticas.

Fontes: Facebook (Change.org), The Next Web

Fique por dentro do mundo da tecnologia!

Inscreva-se em nossa newsletter e receba diariamente as notícias por e-mail.