Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Estudo revela que YouTube recomenda vídeos que violam seus termos de uso

Por| Editado por Douglas Ciriaco | 07 de Julho de 2021 às 13h55

Link copiado!

Szabó Viktor/Pexels
Szabó Viktor/Pexels
Tudo sobre YouTube

Um estudo conduzido pela Mozilla Foundation concluiu que o algoritmo do YouTube é responsável por recomendar aos usuários vídeos que violam as próprias políticas de conteúdo da plataforma.

A pesquisa descobriu que 71% dos vídeos marcados como “Nocivo e perigoso” pelos participantes da avaliação foram sugeridos a outras pessoas pelo próprio site de hospedagem de vídeos. Curiosamente, os não falantes da língua inglesa foram os perfis mais propensos a encontrar conteúdos perturbadores, como uma taxa média de 60% de arrependimento.

O relatório foi montado por meio da coleta de dados do RegretsReporter, uma extensão de navegador criada pela Mozilla exatamente para tal finalidade. Ela permite responder se a experiência com a recomendação foi negativa e qual indicação levou até um vídeo. Assim, dá para cruzar os vídeos e identificar se existe relação entre os conteúdos.

Continua após a publicidade

Esse experimento teve a participação de mais de 30 mil usuários do YouTube, portanto se trata de uma amostra bastante relevante.

Violação das próprias políticas

A Mozilla afirma ter sinalizado um total de 3.362 vídeos como “Nocivo e perigoso”, originários de 91 países, entre julho de 2020 e maio de 2021. Dentre os principais assuntos estavam conteúdos que promoviam a desinformação, violência explícita, discursos de ódio e tentativas de golpe virtual.

Continua após a publicidade

Em um caso, o voluntário assistiu conteúdos sobre as forças armadas dos Estados Unidos. Logo após a conclusão, o site redirecionou ele para um vídeo em que um homem “humilhava uma feminista”, com conteúdo misógino e inapropriado.

O levantamento revela que 200 vídeos recomendados pelo algoritmo do YouTube foram removidos pouco tempo depois, mas chegaram a acumular juntos 160 milhões de visualizações. Em muitos casos, como nos envolvendo golpistas, a remoção pode ter vindo tarde demais.

Segundo a fundação, é possível afirmar que o mecanismo da rede social de vídeos está projetado hoje para prejudicar e desinformar as pessoas. A empresa reforça que tal prática é ainda mais perigosa porque é voltada para quem não tem o inglês como língua nativa, o que pode gerar falhas de comunicação ou incompreensão.

Continua após a publicidade

A companhia afirma ter entregue o resultado ao site para que sejam tomadas providências quanto à necessidade de aprimoramento da inteligência artificial.

Dados bem relevantes

Só para ficar clara a importância do sistema de recomendação de vídeos: 70% do tempo de visualização na plataforma (o que dá um total de 700 milhões de horas por dia) é proveniente de algum conteúdo indicado pelo YouTube. As pessoas vão emendando um vídeo no outro porque eles, teoricamente, trazem coisas do seu interesse.

O grande problema é que vários conteúdos nocivos encontram desempenho bom na plataforma. Em alguns casos, eles chegam a ter sete vezes mais acessos diários do que conteúdos mais “normais”.

Continua após a publicidade

Isso não significa que as recomendações do YouTube sejam ruins. Em mais de 43% dos casos analisados pela pesquisa, os voluntários disseram que a recomendação estava completamente relacionada com os vídeos anteriores.

ATUALIZAÇÃO: Em nota, o YouTube Brasil se manifestou sobre o caso. A rede disse que trabalha para aprimorar a experiência do usuário e o mecanismo de entrega de vídeos. Segue abaixo o posicionamento oficial:

"O objetivo do nosso sistema de recomendação é conectar os espectadores com o conteúdo que os agrada e, por dia, mais de 200 milhões de vídeos são recomendados apenas na nossa página inicial. Mais de 80 bilhões de informações são usadas para calibrar nossos sistemas, incluindo dados de pesquisas com usuários sobre o que eles querem assistir. Trabalhamos constantemente para melhorar a experiência no YouTube e, somente no ano passado, implementamos mais de 30 mudanças diferentes para reduzir as recomendações de conteúdo potencialmente prejudicial. Graças a essa mudança, o consumo de conteúdo que chega perto de violar nossas regras proveniente das nossas recomendações está agora significativamente abaixo de 1%".

Fonte: The Next Web