Projeto da Mozilla expõe “bolhas ideológicas” do YouTube

Por Rafael Arbulu | 17 de Julho de 2020 às 10h00
Tara Jacoby/Spin

A Mozilla Foundation, a entidade por trás do desenvolvimento e administração do navegador Firefox e outras aplicações, conduziu um projeto que revelou algo interessante: ainda que um determinado vídeo ou canal seja comprovadamente desmentido, o YouTube não vai evitar de recomendá-lo a você com base no que você assiste dentro da plataforma.

O projeto recebeu o nome de “Theirtube”, uma brincadeira em inglês que pode ser traduzida para “YouTube deles”, e basicamente envolveu a criação de falsos perfis que obedeçam a diretrizes simplistas de busca de conteúdo. O objetivo é testar o algoritmo de recomendação do portal de vídeos do Google. Para tanto, a Mozilla criou o que chamou de “Personas”, cada uma voltada a uma linha de pensamento específica: frutarianos, apocalípticos, liberais, conservadores, conspiracionistas e negadores do aquecimento global. A ideia é a de que, por meio dessas personas, o algoritmo do YouTube mostraria uma certa preferência de julgamento de acordo com a preferência do usuário. Em suma, o YouTube cria “bolhas ideológicas”.

Talvez com uma pitada de ironia, o projeto tem seu próprio vídeo. No YouTube.

Tudo isso, vale citar, foi criado após a Mozilla entrevistar usuários reais do YouTube que experimentaram recomendações similares do algoritmo. Para cada persona, foi criada uma conta no portal de vídeos, que por sua vez se inscreveu em canais que os entrevistados confirmaram seguir, mas sem assistir a nenhum vídeo especificamente. Como resultado, as seis personas receberam como recomendação de conteúdo vídeos mais alinhados às “suas vertentes filosóficas”.

Em outras palavras, o frutariano (uma pessoa cuja dieta limita-se à exclusiva ingestão de frutas) recebia sugestões de vídeos como “Veja como seguir uma vida frutariana hardcore”, enquanto o apocalíptico (uma pessoa que enxerga cenários de fim de mundo em todas as situações e se prepara, normalmente em excesso, para eles) veria tutoriais para construir um bunker. O perfil conspiracionista via sugestões sobre como a COVID-19 é, “na verdade”, uma arma biológica chinesa ou criada em laboratório (algo que, inclusive, já desmentimos aqui no Canaltech), enquanto liberais e conservadores veriam, respectivamente, sugestões favoráveis e contrárias ao feminismo ou a políticas culturais e sociais. Finalmente, o perfil negacionista do aquecimento global veria vídeos que “provam” que o problema climático é uma mentira global.

Projeto da Mozilla Foundation expõe algoritmo de recomendações do YouTube, provando que portal de vídeos do Google ainda cria "bolhas ideológicas" e contribui para a promoção de conteúdos voláteis, desinformativos ou conspiracionistas (Imagem: Reprodução/TheirTube/Mozilla)

É importante citar que os vídeos sugeridos nem sempre eram falsos, conspiracionistas ou desinformativos. Uma boa parte deles, na verdade, propunha justamente o debate sobre os temas, serviam para expôr outros conteúdos problemáticos (um youtuber desmentindo outro youtuber, por exemplo) ou então tratava-se de alguma lista bem literal (“As 10 teorias da conspiração mais malucas” ou algo do gênero). Mas a Mozilla ressaltou em seu projeto que o algoritmo do YouTube é desenhado para expôr ao usuário conteúdos que o mantenham dentro do YouTube, clicando em um vídeo após o outro - ainda que o material contido no vídeo seja “radical” ou “comprovadamente errado”.

Segundo Tomo Kihara, a pessoa por trás do TheirTube, “esse projeto levanta questões como o que aconteceria se as plataformas fossem mais transparentes sobre as bolhas de recomendação que elas criaram. E se, ao ver as bolhas de outros usuários, seria possível obter uma melhor perspectiva de seu próprio ambiente de recomendações?”

A situação expõe um problema que vem incomodando o YouTube há longa data. De acordo com o TheirTube, o algoritmo de recomendações é responsável por 70% da audiência da plataforma do Google. Entretanto, uma de suas críticas mais ferrenhas reside no fato de que o portal ainda recomenda vídeos conspiracionistas, negacionistas ou de conteúdos voláteis. Em 2019, vídeos que traziam menores de idade em diversas situações fizeram com que o Congresso dos EUA criasse projetos de lei para forçar o YouTube a corrigir isso. O Google, em defesa, disse que trabalharia para que o YouTube não mais exibisse material “volátil”, mas, pelo que o projeto mostra, esse ainda não é o caso.

Fonte: TheirTube

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.