TikTok vai usar algoritmo para banir automaticamente vídeos que violam regras

TikTok vai usar algoritmo para banir automaticamente vídeos que violam regras

Por Igor Almenara | Editado por Douglas Ciriaco | 15 de Julho de 2021 às 13h30
(Imagem: Reprodução/Solen Feyissa/Unsplash)

Desde quarta-feira (14), o TikTok passou a ser mais duro quanto à moderação de conteúdo que circula na plataforma. Mecanismos automatizados agora complementam as equipes humanas na busca por conteúdo que viole as diretrizes da comunidade da rede social.

Algoritmos são aptos a detectar publicações que representam perigo a segurança de menores de idade, violência, conteúdo gráfico, atos sexuais explícitos, nudez e atividade ilegal. Se o sistema detecta alguma violação, o vídeo é removido automaticamente, mas o autor do material pode recorrer da decisão.

Moderação automática pode ser uma dor de cabeça para milhares de usuários (Imagem: Solen Feyissa/Unsplash)

As equipes humanas que tomam conta do conteúdo publicado no TikTok continuarão atuando e lidando diretamente com as denúncias de usuários. Segundo o TikTok, o algoritmo tomará conta de categorias em que “a tecnologia tem maior grau de precisão”.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

O reforço na moderação visa, também, reduzir a quantidade de “vídeos perturbadores” que vão para a supervisão manual. Até agora, todas as denúncias e violações iam direto para a análise de funcionários — hábito que, no caso do Facebook, gerou traumas sérios e culminou no pagamento de US$ 52 milhões em indenização para mais de 11 mil moderadores.

Algoritmos não são perfeitos

Agora, usuários terão que se preocupar com a avaliação errada da moderação automática. Algoritmos podem ser excelentes em reduzir o volume de conteúdo irregular, mas também são um problema para a comunidade. Bastaria um indicativo de violação para o sistema retirar o vídeo do ar.

As acusações de restrição a conteúdo LGBTQIA+, confirmadas pela rede social em setembro do ano passado, também não colaboram com o algoritmo. O pente fino automatizado pode silenciar ainda mais essas comunidades.

Recentemente, também, a plataforma foi acusada de tirar do ar publicações com termos antirracistas, enquanto mantinha conteúdo racista em plena circulação. Vídeos de apoio a neonazistas e movimentos de supremacia branca eram visualizados sem problemas na plataforma, contudo qualquer post que continha a palavra "black" ("preto", em inglês) era qualificado como impróprio independentemente do contexto — até quando parte da frase "Black Lives Matter" ("vidas negras importam").

Por outro lado, o TikTok afirma que o monitoramento não é lá tão impreciso. De acordo com o The Verge, o recurso estava em testes em países específicos, como o Brasil e Paquistão, mas apenas 5% das remoções foram consideradas erros de análise.

O número é pequeno, mas se colocado em proporção com a quantidade de vídeos presente na plataforma, chega à casa dos milhares. De acordo com o The Verge, nos primeiros três meses de 2021, somente nos Estados Unidos foram publicados 8,5 milhões de clipes — 5% desse total equivalem a 425 mil publicações.

Implementação lenta

Somente mercados selecionados serão afetados neste primeiro momento. O sistema começará a atuar em publicações de usuários dos Estados Unidos e Canadá.

Quanto ao Brasil, não está claro se os testes continuarão a acontecer após a implementação final da ferramenta, ou se o país é o próximo da fila para receber o recurso. O TikTok não deu previsão para a ampliação do algoritmo de moderação.

Fonte: The Verge, Android Headlines

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.