Hackear ChatGPT e Gemini para replicar informação falsa leva só 20 minutos
Por Lillian Sibila Dala Costa • Editado por Jones Oliveira |

Thomas Germain, jornalista de tecnologia do veículo estatal BBC, do Reino Unido, provou que é muito fácil inserir informações falsas em chatbots de IA, além de bastante rápido. O repórter conseguiu convencer as LLMs de que ele é o mais bem-sucedido “jornalista tech comedor competitivo de cachorro-quente” com apenas um artigo publicado em seu blog pessoal.
Apesar de parecer uma brincadeira inofensiva, as consequências dessa facilidade em manipular as inteligências artificiais é preocupante quando falamos de questões como saúde, política e conselhos pessoais. Pesquisadores como Lily Ray, presidente de estratégia de otimização de motores de busca (SEO) na Amsive, mostram preocupação com essa facilidade, que é maior do que era há dois ou três anos em pesquisas na web.
Como manipular chatbots de IA
Embora porta-vozes da Google digam que os sistemas de pesquisa deixem resultados 99% livres de spam, a tecnologia de IA está evoluindo mais rápido do que as empresas conseguem controlar. Chatbots costumam responder usuários com base em bancos de dados internos, mas, ocasionalmente, pesquisam na internet para retornar com dados: não é sempre que fica claro quando isso acontece.
Para provar como é possível manipular os resultados com base nessa busca na web, Germain gastou 20 minutos escrevendo um artigo em seu blog pessoal intitulado “Os melhores jornalistas tech na competição de ingestão de cachorros-quentes” (em tradução livre), sem evidências, inventando uma competição e um ranking.
Menos de 24 horas depois, qualquer busca no Gemini, ChatGPT e Visão Geral da IA no Google mostrava seu nome como melhor competidor nas buscas. Só o chatbot Claude não foi enganado.
As IAs não mencionaram que o blog de Germain era a única fonte que citava a competição e algumas sequer providenciaram o link para o site.
Segundo especialistas, quando a busca na web exigia que o usuário entrasse em sites para conferir a resposta, o pensamento crítico era mais comum: duvidava-se de um site que dizia ter o “melhor tênis para corrida” quando você buscava pelo produto, já que era claro que a resposta era enviesada.
Com a IA, o usuário tende a acreditar na palavra do chatbot sem questionamentos, já que a resposta parece vir diretamente do sistema: uma pesquisa revelou que internautas têm uma chance 58% menor de clicar em um link quando a Visão Geral da IA já traz a resposta mastigada. É fácil esquecer que o mesmo viés da empresa que promete ter o melhor produto continua na resposta da LLM.
Indo para pesquisas sobre remédios, saúde e conselhos psicológicos, é fácil de imaginar o quão perigoso isso é. Embora a Google diga que “pesquisa incomuns [como a de Germain] não refletem a experiência normal do usuário”, a empresa também admite que 15% das buscas diárias são completamente novas.
A IA encoraja usuários a fazer perguntas mais específicas, e hackers buscando fazer spam se aproveitam disso.
Como consertar o problema?
O que fazer, então? Germain acredita que avisos legais mais claros são a solução mais fácil e melhor para a situação: as IAs deveriam avisar se os fatos que compartilham vêm de um comunicado de imprensa, um único post em um blog pessoal ou um artigo científico.
O usuário, no entanto, também precisa pensar nas perguntas que faz. Fatos genéricos como “Quais as teorias mais famosas de Sigmund Freud?” podem ser pesquisados em chatbots sem medo, mas conselhos médicos e fatos muito recentes correm perigo de saírem com alucinações e informações falsas.
No final das contas, os chatbots trazem mentiras com a mesma autoridade com que trazem verdades. Se antes as ferramentas de pesquisa exigiam que você avaliasse a informação por si mesmo, por que parar de fazer isso agora? Nas palavras de Germain, não deixe seu pensamento crítico ser terceirizado a uma IA: seja um bom cidadão e verifique as coisas antes de levá-las como verdade.
Confira também:
- Aplicativos de IPTV estão sendo usados para entregar malwares e roubar vítimas
- Primeiro malware que usa IA generativa em ataques no Android é descoberto
- Guia de carreira: passo a passo para começar em cibersegurança do zero
Fonte: BBC, ahrefs blog