Facebook: jornal revela regras controversas de moderação de conteúdo

Por Redação | 22.05.2017 às 09:16
photo_camera Divulgação

As atitudes do Facebook diante do crescente número de vídeos violentos e retratando abuso que vêm sendo compartilhados no site passaram as últimas semanas sendo vistas como positivas, até que o jornal inglês The Guardian divulgou um compilado das novas regras a serem seguidas pelos moderadores da rede social. Consideradas “alarmantes” por organizações de direitos humanos, as normas permitem a publicação e permanência de vídeos violentos ou levemente abusivos em prol de investigações e da liberdade de expressão.

Por exemplo, o Facebook deve continuar permitindo a transmissão ou hospedagem de vídeos que demonstrem situações de bullying, bem como cenas em que usuários tentam fazer mal a si mesmos. A ideia, afirmam as regras, é evitar que as vítimas sejam punidas pelo que estão sofrendo, e, ao mesmo tempo, facilitar a identificação e a busca por ajuda. O mesmo vale para vídeos de abuso de animais – desde que não sejam “extremamente chocantes”.

Marcações de conteúdo perturbador começarão a aparecer em vídeos que retratem mortes violentas ou cenas de guerra. Aqui, o Facebook cita um elemento informativo, com as cenas sendo importantes para a divulgação de informações pela imprensa, por exemplo, além do teor histórico que pode surgir com fotos ou vídeos do passado.

Uma das normas mais controversas, entretanto, tem a ver com o pornô de vingança, com os moderadores sendo obrigados a localizarem relatos individuais de que as imagens foram compartilhadas sem o consentimento dos retratados. Declarações individuais não valem – nem mesmo das pessoas nas imagens – e essa confirmação deve ser feita a partir de notas na imprensa ou comentários dos responsáveis pelos compartilhamentos, indicando sua intenção.

Diante da revelação das normas, a Sociedade Nacional para Prevenção de Crueldades Contra Crianças, do Reino Unido, pediu que uma regulação independente fosse feita em relação ao conteúdo postado no Facebook. O porta-voz da organização exigiu a revisão das normas e aplicação de multas caso a empresa não cumprisse com suas obrigações relacionadas à moderação.

Citando as novas medidas como “alarmantes”, a instituição disse ainda que o Facebook faz pouco para proteger, principalmente, as crianças, e que as normas recém-implementadas passam bem longe do suficiente. O mesmo valeria, inclusive, para outras redes sociais, que também contam com os mesmos problemas e falta de ação.

Em resposta à abertura dos documentos na imprensa, o Facebook disse que as novas medidas tentam balancear a proteção dos usuários com a liberdade de expressão. Monika BIckert, diretora de políticas globais da empresa, disse que isso envolve, muitas vezes, dar respostas a perguntas complicadas, mas que a companhia não se afastou de seu ideal maior, que é manter um ambiente online seguro.

Além das regras, que devem nortear a ação dos atuais 4,5 mil moderadores – com mais três mil contratados a caminho –, o Facebook disse estar trabalhando em novos sistemas automatizados que facilitem esse trabalho. A ideia é aumentar a agilidade de resposta às denúncias dos usuários ao mesmo tempo em que o máximo de questões possam ser avaliadas de forma automática, com apenas os casos mais complexos chegando às mãos dos agentes humanos.

O contato com as autoridades também deve ser ampliado, na mesma medida em que denunciar um post se tornará mais fácil. O ideal, no final das contas, é criar uma comunidade mais segura, que puna criminosos e, acima de tudo, preste auxílio a quem precisar dele. Uma tarefa complicada, na qual, pelo menos em seus primeiros passos, o Facebook não parece estar conseguindo executar.

Fontes: The Guardian, TechCrunch