Estudo revela que YouTube recomenda vídeos que violam seus termos de uso

Estudo revela que YouTube recomenda vídeos que violam seus termos de uso

Por Alveni Lisboa | Editado por Douglas Ciriaco | 07 de Julho de 2021 às 13h55
Szabó Viktor/Pexels

Um estudo conduzido pela Mozilla Foundation concluiu que o algoritmo do YouTube é responsável por recomendar aos usuários vídeos que violam as próprias políticas de conteúdo da plataforma.

A pesquisa descobriu que 71% dos vídeos marcados como “Nocivo e perigoso” pelos participantes da avaliação foram sugeridos a outras pessoas pelo próprio site de hospedagem de vídeos. Curiosamente, os não falantes da língua inglesa foram os perfis mais propensos a encontrar conteúdos perturbadores, como uma taxa média de 60% de arrependimento.

O relatório foi montado por meio da coleta de dados do RegretsReporter, uma extensão de navegador criada pela Mozilla exatamente para tal finalidade. Ela permite responder se a experiência com a recomendação foi negativa e qual indicação levou até um vídeo. Assim, dá para cruzar os vídeos e identificar se existe relação entre os conteúdos.

Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech News. Todos os dias um resumo das principais notícias do mundo tech para você!

A extensão deixa que o usuário diga que o vídeo recomendado foi positivo ou negativo, com base no seu hábito (Imagem: Reprodução/Mozilla)

Esse experimento teve a participação de mais de 30 mil usuários do YouTube, portanto se trata de uma amostra bastante relevante.

Violação das próprias políticas

A Mozilla afirma ter sinalizado um total de 3.362 vídeos como “Nocivo e perigoso”, originários de 91 países, entre julho de 2020 e maio de 2021. Dentre os principais assuntos estavam conteúdos que promoviam a desinformação, violência explícita, discursos de ódio e tentativas de golpe virtual.

Em um caso, o voluntário assistiu conteúdos sobre as forças armadas dos Estados Unidos. Logo após a conclusão, o site redirecionou ele para um vídeo em que um homem “humilhava uma feminista”, com conteúdo misógino e inapropriado.

O levantamento revela que 200 vídeos recomendados pelo algoritmo do YouTube foram removidos pouco tempo depois, mas chegaram a acumular juntos 160 milhões de visualizações. Em muitos casos, como nos envolvendo golpistas, a remoção pode ter vindo tarde demais.

Mesmo violando as diretrizes, alguns vídeos são recomendados pelo próprio site (Imagem: Reprodução/YouTube)

Segundo a fundação, é possível afirmar que o mecanismo da rede social de vídeos está projetado hoje para prejudicar e desinformar as pessoas. A empresa reforça que tal prática é ainda mais perigosa porque é voltada para quem não tem o inglês como língua nativa, o que pode gerar falhas de comunicação ou incompreensão.

A companhia afirma ter entregue o resultado ao site para que sejam tomadas providências quanto à necessidade de aprimoramento da inteligência artificial.

Dados bem relevantes

Só para ficar clara a importância do sistema de recomendação de vídeos: 70% do tempo de visualização na plataforma (o que dá um total de 700 milhões de horas por dia) é proveniente de algum conteúdo indicado pelo YouTube. As pessoas vão emendando um vídeo no outro porque eles, teoricamente, trazem coisas do seu interesse.

O grande problema é que vários conteúdos nocivos encontram desempenho bom na plataforma. Em alguns casos, eles chegam a ter sete vezes mais acessos diários do que conteúdos mais “normais”.

Isso não significa que as recomendações do YouTube sejam ruins. Em mais de 43% dos casos analisados pela pesquisa, os voluntários disseram que a recomendação estava completamente relacionada com os vídeos anteriores.

ATUALIZAÇÃO: Em nota, o YouTube Brasil se manifestou sobre o caso. A rede disse que trabalha para aprimorar a experiência do usuário e o mecanismo de entrega de vídeos. Segue abaixo o posicionamento oficial:

"O objetivo do nosso sistema de recomendação é conectar os espectadores com o conteúdo que os agrada e, por dia, mais de 200 milhões de vídeos são recomendados apenas na nossa página inicial. Mais de 80 bilhões de informações são usadas para calibrar nossos sistemas, incluindo dados de pesquisas com usuários sobre o que eles querem assistir. Trabalhamos constantemente para melhorar a experiência no YouTube e, somente no ano passado, implementamos mais de 30 mudanças diferentes para reduzir as recomendações de conteúdo potencialmente prejudicial. Graças a essa mudança, o consumo de conteúdo que chega perto de violar nossas regras proveniente das nossas recomendações está agora significativamente abaixo de 1%".

Fonte: The Next Web

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.