TikTok é acusado de censurar termos antirracismo, mas permitir conteúdo racista

TikTok é acusado de censurar termos antirracismo, mas permitir conteúdo racista

Por Alveni Lisboa | Editado por Douglas Ciriaco | 14 de Julho de 2021 às 11h00
Divulgação/TikTok

A rede social de vídeos curtos TikTok tem investido tempo e recursos na criação de um sistema de gerenciamento para bloquear conteúdos inapropriados. Parece, contudo, que ainda falta muita calibragem para deixar tudo em ordem. O aplicativo foi acusado de ter banido termos ou assinalado como impróprios conteúdos que usavam a palavra inglesa “black” (preto), usada em frases como “Black Lives Matter”, “supporting black voices,” e “supporting black people”.

Essas terminologias são comumente empregadas por movimentos antirracistas e vêm ganhando espaço para combater discursos de ódio. Apesar disso, o algoritmo do TikTok havia sinalizado postagens sobre o tema como conteúdo irregular, segundo o site MIT Technology Review. O sistema parece não considerar o contexto do uso da palavra, o que provoca o bloqueio indevido.

TikTok estava sinalizando termos antirracistas como impróprios, mas deixando os racistas impunes (Imagem: pikisuperstar/freepik)

Por outro lado, um vídeo de apoio a neonazistas e movimentos de supremacia branca continuava em exibição normalmente, mesmo com as prováveis denúncias recebidas. Frases como “I am a neo nazi” (Eu sou neonazista) e “I am an anti semetic” (Eu sou antissemita) são aceitas nas legendas, mas “I am a black man” (Eu sou um homem preto) é vedada.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

Como resposta ao site do MIT, o TikTok afirma ter havido um erro técnico e que tudo foi corrigido logo após a detecção. Mas, ao que parece, sempre que algum grupo marginalizado ganha atenção acaba censurado, enquanto seus perseguidores não sofrem sanções. A dificuldade reside na calibração do algoritmo, afinal ambos usam os mesmos termos, o que complica saber se aquilo é positivo ou negativo.

O especialista em ética em tecnologia da Universidade do Colorado, nos Estados Unidos, Casey Fiesler, disse ao MIT Tech que a forma mais eficaz é aprendendo com as comunidades afetadas. Na prática, as plataformas precisariam contatar lideranças de grupos discriminados para tentar entender como se comunicam ou posicionam acerca de determinados temas. No caso da palavra "black", por exemplo, não deveria ser um problema se o algoritmo fosse melhor treinado para associar o termo a palavras pejorativas.

Repetições de erros racistas

Esta não é a primeira vez que a plataforma social chinesa erra a mão na moderação de conteúdo. Conforme lembra o MIT Tech, o app parece passar por ciclos constantes de falhas, de modo recorrente. Há pouco tempo, a rede bloqueou o termo “Asian women” e a hashtag “intersex”, impedindo que essas pessoas pudessem se manifestar com o preconceito sofrido.

Há algumas semanas, o TikTok aplicou um filtro de beleza obrigatório para afinar o queixo de usuários do app no Android. Sem qualquer aviso, rostos femininos mais largos ganhavam proporções mais sutis, uma característica muito apreciada por alguns homens orientais.

O Canaltech entrou em contato com a representação da rede social no Brasil e aguarda resposta. O conteúdo será atualizado assim que houver retorno.

Fonte: MIT Technology Review

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.