Documentos vazados revelam intervenção humana em destaques do Facebook

Por Redação | 12.05.2016 às 16:33 - atualizado em 12.05.2016 às 17:13
photo_camera Foto: Divulgação

Desde o final de semana, o Facebook vem enfrentando acusações de manipular seus trending topics de acordo com posicionamento político. A rede social respondeu afirmando que um algoritmo é responsável por verificar quais são os tópicos mais discutidos por seus usuários, mas agora, documentos vazados contam uma história diferente e podem comprovar que a interferência humana acontece em todas as etapas do processo.

O arquivo traz um manual de conduta e regras gerais para o time editorial do Facebook nos Estados Unidos, e mostra que eles trabalham em todas as etapas desse processo. Os editores, por exemplo, seriam sim capazes de “injetar” trending topics entre as listas dos mais populares, da mesma forma que poderiam bloquear a colocação de temas na relação de importância de acordo com critérios pouco concretos, como falta de relevância ou abrangência.

O uso de algoritmos como método definidor teria sido abandonado em 2014, após críticas de usuários de que o sistema não seria fiel ao que realmente estava acontecendo. No centro da questão estavam os casos de violência policial na cidade de Ferguson, nos Estados Unidos, palco de tumultos depois da morte de Michael Brown, um jovem negro morto por um policial branco. Na época, afirmava-se que o Facebook não estaria dando atenção suficiente ao caso em sua cobertura de notícias.

Justamente por isso, os editores seriam incentivados a observarem os movimentos dos utilizadores e reconhecerem tópicos que vêm ganhando atenção, mesmo que ainda não estejam entre os mais comentados da rede. Estes seriam os temas injetados entre os trending topics, de forma a informar os usuários e garantir sua presença na medida em que a opinião pública busca por eles. Isso, entretanto, também poderia ser entendido como uma forma de manipulação, uma vez que a entrada de um assunto entre os destaques garante uma importância maior a ele.

Os documentos também comprovam outra alegação feita pelos ex-funcionários responsáveis por esse trabalho, a de que o Facebook estaria privilegiando alguns veículos em detrimento de outros. A empresa respondeu dizendo que o que define isso é a história, e não ela mesma, mas o manual de conduta cita especificamente dez veículos como “fontes seguras” para as informações dos trending topics, alegando que pelo menos cinco deles durante a verificação de um fato – normalmente, também, são eles quem acabam citados entre os destaques. Todos poderiam ser considerados “liberais”, pelo menos, pelos conservadores.

Além disso, o Facebook pede que os editores privilegiem histórias nas quais a própria rede social esteja envolvida. Isso inclui, por exemplo, declarações ou vídeos feitos por políticos, celebridades e outras pessoas de importância em suas páginas oficiais, que podem ser linkadas diretamente nos trending topics e aumentarem o tráfego interno dentro da própria plataforma.

Em resposta, o vice-presidente de operações globais do Facebook, Justin Osofsky, confirmou a existência do conjunto de regras, mas disse que ele serve para garantir que o conteúdo veiculado é legítimo e efetivamente importante. Ele voltou a negar que a empresa privilegie certas fontes e discrimine outras, independente de alinhamento político ou qualquer outro aspecto, e afirmou que centenas de veículos – e não apenas os dez citados – seriam verificados nesse processo. Além disso, afirmou que o objetivo é entregar uma “experiência significativa” e “um produto de alta qualidade”.

Entenda

Facebook

No final de semana, uma reportagem do site Gizmodo reuniu relatos de supostos ex-funcionários do Facebook, que acusavam a empresa de manipular sua lista de notícias de destaque de acordo com posicionamentos políticos. Matérias com pontos de vista direitistas estariam sendo excluídos deliberadamente da lista, bem como comentários e análises que representassem um ponto de vista conservador.

Além disso, a rede social também foi acusada de injetar materiais entre os trending topics, de forma a dar importância maior a eventos que, de outra maneira, não apareceriam ali. Na reportagem, a ideia geral é de que o espaço seria mais uma forma de transparecer a opinião do Facebook, com os assuntos que a empresa julgaria interessantes ou válidos, do que um onde os usuários podem buscar informações concretas e consistentes sobre o que está acontecendo no mundo.

Em resposta, o vice-presidente de buscas da companhia, Tom Stocky, disse que a intervenção humana acontece apenas de forma a moderar e melhorar os resultados obtidos, única e exclusivamente, por um algoritmo. Os editores podem, por exemplo, unir duas ou mais hashtags em uma, de forma a criar um todo mais coeso, ou selecionar fontes melhores do que aquelas mais citadas pelos usuários. Fazendo isso estaria um time de diferentes posicionamentos políticos, religiosos e sociais, de forma a, justamente, garantir a isenção e pluralidade da operação.

Fonte: The Guardian