Publicidade

Facebook vs. Democracia: como um algoritmo suprime a diversidade de conteúdo

Por| 12 de Maio de 2015 às 09h49

Link copiado!

Facebook vs. Democracia: como um algoritmo suprime a diversidade de conteúdo
Facebook vs. Democracia: como um algoritmo suprime a diversidade de conteúdo
Tudo sobre Facebook

Um estudo publicado na revista Science desta semana mensurou quanto o algoritmo de filtragem do Facebook mantém as pessoas longe da leitura de notícias e opiniões das quais discordam, uma vez que ele foi projetado para mostrar principalmente as coisas que os usuários gostam. Mas por que isso é importante? A resposta é simples: democracia.

A exposição a diferentes ideias políticas é importante para o conceito de democracia. Afinal, não podemos tomar decisões inteligentes sem considerar todos os lados de uma questão. O fato do feed de notícias do Facebook colocar automaticamente no final da página as coisas que você pode não concordar e, consequentemente deixar de ler, anula uma série de novas perspectivas que você poderia ter sobre um determinado assunto.

O resultado mostrou que, em média, cerca de 23% dos amigos de um usuário possuem uma afiliação política diferente e uma média de 29% do feed de notícias vai apresentar a esse usuário um ponto de vista oposto ao seu. O Facebook alega que o próprio algoritmo é mais afetado pelas histórias que um usuário clica do que por qualquer outra coisa. Em outras palavras: a situação é ruim, mas não tão ruim quanto os críticos da rede social temem.

"Isso mostra que os efeitos do que eu escrevi existem e são significativos, mas eles são menores do que eu tinha imaginado", disse Eytan Bakshy, o cientista de dados que liderou o estudo. Na pesquisa, o Facebook se refere à exibição de um post que um usuário não concorda como "transversal".

Continua após a publicidade

A rede social de Mark Zuckerberg diz que "a exposição de pontos de vista transversais está associada a baixos níveis de participação política". Porém, o cientista do Microsoft Research, Christian Sandvig, não gostou muito dessa abordagem. Segundo ele, "não há nenhuma gangue de cientistas políticos argumentando contra exposição à diversas fontes de notícias".

Para realizar o estudo, cientistas de dados analisaram a interação de 10,1 milhões de usuários do Facebook com notícias socialmente compartilhadas. Porém, se pararmos para pensar que a rede social possui mais de 200 milhões de usuários norte-americanos, o número utilizado corresponde a pouco mais de 20%. Desses 20%, apenas 9% listou sua afiliação política no site. Após triturar um pouco mais os números, o Facebook optou por estudar apenas 4% dos usuários norte-americanos.

O grande problema com isso é que a amostragem do estudo não foi aleatória. O Facebook escolheu os participantes a partir de uma base de pessoas que possuem um forte vínculo com a política, o suficiente para citar esse detalhe em seu perfil da rede social, o que definitivamente não representa a população do Facebook em geral. Isso porque as pessoas que auto identificam a sua posição política certamente vão se comportar de uma maneira diferente do que as demais.

Os resultados são convenientes para a rede social, que com mais de 1,3 bilhão de usuários é efetivamente o jornal diário mais lido do mundo. Mas suas decisões editoriais são elaboradas com pouca transparência graças ao algoritmo do feed de notícias.

Continua após a publicidade

Com informações do The New York Times