TikTok vai usar algoritmo para banir automaticamente vídeos que violam regras
Por Igor Almenara | Editado por Douglas Ciriaco | 15 de Julho de 2021 às 13h30
Desde quarta-feira (14), o TikTok passou a ser mais duro quanto à moderação de conteúdo que circula na plataforma. Mecanismos automatizados agora complementam as equipes humanas na busca por conteúdo que viole as diretrizes da comunidade da rede social.
- Qual a diferença entre TikTok e TikTok Lite? Veja o comparativo
- Histórico: TikTok é o 1º app não Facebook a bater 3 bilhões de downloads
- TikTok é acusado de censurar termos antirracismo, mas permitir conteúdo racista
Algoritmos são aptos a detectar publicações que representam perigo a segurança de menores de idade, violência, conteúdo gráfico, atos sexuais explícitos, nudez e atividade ilegal. Se o sistema detecta alguma violação, o vídeo é removido automaticamente, mas o autor do material pode recorrer da decisão.
As equipes humanas que tomam conta do conteúdo publicado no TikTok continuarão atuando e lidando diretamente com as denúncias de usuários. Segundo o TikTok, o algoritmo tomará conta de categorias em que “a tecnologia tem maior grau de precisão”.
O reforço na moderação visa, também, reduzir a quantidade de “vídeos perturbadores” que vão para a supervisão manual. Até agora, todas as denúncias e violações iam direto para a análise de funcionários — hábito que, no caso do Facebook, gerou traumas sérios e culminou no pagamento de US$ 52 milhões em indenização para mais de 11 mil moderadores.
Algoritmos não são perfeitos
Agora, usuários terão que se preocupar com a avaliação errada da moderação automática. Algoritmos podem ser excelentes em reduzir o volume de conteúdo irregular, mas também são um problema para a comunidade. Bastaria um indicativo de violação para o sistema retirar o vídeo do ar.
As acusações de restrição a conteúdo LGBTQIA+, confirmadas pela rede social em setembro do ano passado, também não colaboram com o algoritmo. O pente fino automatizado pode silenciar ainda mais essas comunidades.
Recentemente, também, a plataforma foi acusada de tirar do ar publicações com termos antirracistas, enquanto mantinha conteúdo racista em plena circulação. Vídeos de apoio a neonazistas e movimentos de supremacia branca eram visualizados sem problemas na plataforma, contudo qualquer post que continha a palavra "black" ("preto", em inglês) era qualificado como impróprio independentemente do contexto — até quando parte da frase "Black Lives Matter" ("vidas negras importam").
Por outro lado, o TikTok afirma que o monitoramento não é lá tão impreciso. De acordo com o The Verge, o recurso estava em testes em países específicos, como o Brasil e Paquistão, mas apenas 5% das remoções foram consideradas erros de análise.
O número é pequeno, mas se colocado em proporção com a quantidade de vídeos presente na plataforma, chega à casa dos milhares. De acordo com o The Verge, nos primeiros três meses de 2021, somente nos Estados Unidos foram publicados 8,5 milhões de clipes — 5% desse total equivalem a 425 mil publicações.
Implementação lenta
Somente mercados selecionados serão afetados neste primeiro momento. O sistema começará a atuar em publicações de usuários dos Estados Unidos e Canadá.
Quanto ao Brasil, não está claro se os testes continuarão a acontecer após a implementação final da ferramenta, ou se o país é o próximo da fila para receber o recurso. O TikTok não deu previsão para a ampliação do algoritmo de moderação.
Fonte: The Verge, Android Headlines