Publicidade

Facebook mudou diretrizes de discurso de ódio após protestos em Charlottesville

Por| 25 de Maio de 2018 às 16h15

Link copiado!

Reprodução
Reprodução
Tudo sobre Facebook

Após os protestos de supremacistas brancos em Charlottesville em agosto do ano passado, o Facebook adotou medidas de reeducação de usuários. Isso é o que mostra um documento ao qual o site Motherboard teve acesso.

Os protestos na cidade americana resultaram na morte de uma pessoa e outras 19 ficaram feridas. Isso motivou uma onda de discurso de ódio na rede social, o que levou a empresa a repensar a forma como lida com o assunto.

Segundo os documentos apresentados pela Motherboard, o Facebook enviou uma cartilha aos seus moderadores internos procurando apresentar conceitos sobre supremacia branca e neonazismo. “Incidentes recentes nos Estados Unidos (por exemplo, Charlottesville) mostraram que há uma confusão potencial sobre nossas políticas de ódio e as organizações de ódio específicas em mercados específicos”, diz o documento.

Os documentos internos de treinamentos para moderadores foi atualizado após os acontecimentos, adicionando alguns novos exemplos do que pode ser considerado discurso de ódio na plataforma. Por exemplo, três meses após o protesto, a comparação de mexicanos com a palavra "criaturas", de forma claramente pejorativa, passou a não ser mais permitida.

Continua após a publicidade

Além disso, a comparação entre muçulmanos e porcos também entrou na lista. Por fim, a rede social passou a chamar atenção de moderadores para o uso do pronome “it” na língua inglesa para se referir a pessoas transgêneras. O artigo é comumente usado para se referir a objetos, animais e lugares, mas quando é associado a pessoas, configura o discurso de ódio.

“[Nacionalismo] é uma Ideologia e movimento de extrema direita, mas não parece estar sempre associado ao racismo (pelo menos não explicitamente). Na verdade, alguns nacionalistas brancos evitam cuidadosamente o termo supremacia porque têm conotações negativas”, indica o documento.

Contudo, o próprio documento entende que estes termos como nacionalismo e racismo não estão sempre intimamente ligados, considerando a diferenciação destes conceitos um dos maiores desafios de quem vai moderar conteúdos na rede social.

Por outro lado, há conceitos mais diretos na cartilha como a questão: “Você pode dizer que é racista no Facebook?”. "Não. Por definição, como racista, você odeia pelo menos uma das nossas características que estão protegidas”, aponta a cartilha.

Continua após a publicidade

Identificação

Para classificar se um usuário está propagando discurso de ódio na plataforma, a rede social usa um sistema que divide um usuário em três níveis: se ele apresenta sinais fracos, médios ou fortes de ódio.

Os fortes dizem respeito a uma exposição mais direta de seus discursos, como participar ou criar uma organização relacionada a isso. Os sinais médios são utilização de símbolos ou linguagem que agrida certos grupos. Por fim, sinais fracos são os associados à propagação de informações de discurso de ódio, desde que não criadas pelo usuário.

Em nota, o Facebook confirmou a veracidade do documento. “O documento tenta avaliar se um indivíduo ou grupo deve ser designado como uma figura ou organização de ódio com base em vários sinais diferentes, como se eles realizaram ou motivaram violência contra pessoas com base em raça, religião ou outras categorias protegidas", explicou a empresa ao Motherboard.

Continua após a publicidade

Fonte: Motherboard