Falha no ChatGPT permitia roubar dados do Gmail sem clicar em nada
Por Lillian Sibila Dala Costa • Editado por Jones Oliveira |

A companhia de cibersegurança Radware descobriu uma vulnerabilidade na ferramenta Deep Research (Pesquisa Profunda) do ChatGPT que permitia coletar dados do Gmail de usuários sem o seu conhecimento. O recurso foi lançado em fevereiro, desenhado para analisar grandes quantidades de informação.
- ChatGPT ganha "pesquisa profunda" após sucesso do DeepSeek
- Pesquisa aprofundada do ChatGPT ganha versão mais leve para contas gratuitas
Segundo a OpenAI, a falha foi corrigida no último dia 3 de setembro, e a Radware não encontrou evidências de que hackers tenham explorado a brecha para roubo de dados.
É possível, no entanto, que agentes maliciosos tenham guardado informações e as usem em ataques de phishing e outras iniciativas futuras.
Deep Research do ChatGPT e dados de usuários
O Deep Research foi uma maneira que a OpenAI encontrou de permitir pesquisas mais robustas e respostas rápidas para perguntas complexas, trabalhando com maiores quantidades de dados online. Ela está disponível apenas em planos pagos do modelo de linguagem de larga escala (LLM) e, com autorização dos usuários, pode se conectar às suas contas do Gmail.
Para testar a vulnerabilidade, os especialistas da Radware enviaram e-mails a si mesmos com instruções escondidas para que o Deep Research pesquisasse a caixa de entrada do Gmail por informações pessoais, como endereço e nome completo. A IA deveria, em seguida, enviar os dados coletados a um endereço da web sob controle dos pesquisadores.
Segundo o Diretor de Pesquisa em Ameaças da empresa de segurança, Pascal Geenens, o usuário que teria os dados roubados sequer precisaria clicar em alguma coisa para que os cibercriminosos ganhassem acesso às suas informações — bastaria ter vinculado o Gmail ao buscador de LLM. Hackers têm usado ferramentas de inteligência artificial na condução de seus ataques, mas esse caso mostra um raro exemplo de exploração dos próprios agentes de IA para o roubo de dados.
Em comunicado, a OpenAI afirmou que pesquisadores costumam testar sistemas de forma a simular ataques, e considerou a análise uma adição bem-vinda; ela ajudou na melhoria das ferramentas da empresa. A segurança dos modelos de linguagem, segundo a companhia, é prioridade, e suas equipes seguem otimizando e aumentando os padrões da tecnologia para evitar brechas como essa.
Veja também:
- ChatGPT falso espalha ataques de ransomware, avisa Microsoft
- Teste de segurança viu ChatGPT disposto a instruir sobre bombas, armas e crimes
- ChatGPT pode ser usado para indicar brechas e criar ataques cibernéticos
VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Fonte: Radware