Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Algoritmo do Google ajuda a legitimar teóricos da conspiração, aponta estudo

Por| Editado por Douglas Ciriaco | 04 de Abril de 2022 às 18h18

Link copiado!

Pixabay/Simon
Pixabay/Simon
Tudo sobre Google

Pesquisadores da universidade Simon Fraser (SFU), do Canadá, chegaram à conclusão de que os algoritmos do buscador do Google tendem a ressaltar teóricos da conspiração e amplificar visões extremistas. O estudo publicado no M/C Journal deste mês ressalta como os complementos de pesquisa sugeridos pelo sistema deixam de revelar o suposto comportamento negativo dessas pessoas.

O artigo How Google Autocomplete Algorithms about Conspiracy Theorists Mislead the Public analisou os nomes de 37 teóricos da conspiração reconhecidos e descobriu que em nenhuma situação o algoritmo mencionou este fato. O material se refere àquela classificação que geralmente aparece abaixo do nome quando se pesquisa por pessoas conhecidas.

Continua após a publicidade

Um exemplo mencionado foi Gavin McInnes, criador da organização neofascista Proud Boys, classificado pelo buscador apenas como "escritor canadense". Quando alguém digita o nome dele, é automaticamente direcionado para um resultado que não mostra qual sua principal atividade.

Outro caso seria o de Alex Jones, um conhecido negacionista que refuta ter havido tiroteio na escola em Sandy Hook e outros acontecimentos sociais. Alex é listado pelo Google como "apresentador de rádio norte-americano", sem menção ao seu ativismo. Jerar Miller, defensor da supremacia branca e responsável por um tiroteio em Las Vegas, em 2014, é mencionado como um "artista americano", mesmo com a associação ao fato nas pesquisas.

O The Disinformation Project é parte da School of Communication da SFU, financiado pelo governo do Canadá e liderado pelo professor Ahmed Al-Rawi. A ideia é examinar discursos de notícias falsas na mídia canadense e nas redes sociais para ajudar a entender melhor esse processo.

Legendas resumidas

Continua após a publicidade

A pesquisa diz que essa simplificação é um problema grave, já que os usuários da internet possuem uma enorme dependência do mecanismo de busca do Google para aprender sobre as coisas. As legendas resumidas demais poderiam "representar uma ameaça ao normalizar indivíduos que espalham teorias da conspiração, semeiam dissensão e desconfiança nas instituições", dizem os cientistas.

Conforme o Google, essas legendas atribuídas às pessoas são geradas de forma automatizada e refletem rótulos neutros. Não existe a possibilidade de criar novas ou alterar o que está ali descrito, pois isso abriria precedentes para manipulação das informações.

Em geral, o algoritmo tenta refletir uma descrição breve ou a principal ocupação da pessoa, sem focar no que ela pode ter feito de errado ao longo da vida. "As preferências dos usuários e a compreensão das informações podem ser manipuladas com base em sua confiança nos resultados de pesquisa do Google, permitindo assim que esses rótulos sejam amplamente aceitos em vez de fornecer uma imagem completa do dano que suas ideologias e crenças causam", diz o aluno de mestrado e um dos autores do estudo, Nathan Worku.

Fonte: Simon Fraser University