Publicidade

Falha no ChatGPT permitia roubar dados do Gmail sem clicar em nada

Por  • Editado por Jones Oliveira | 

Compartilhe:
OpenAI/Divulgação
OpenAI/Divulgação

A companhia de cibersegurança Radware descobriu uma vulnerabilidade na ferramenta Deep Research (Pesquisa Profunda) do ChatGPT que permitia coletar dados do Gmail de usuários sem o seu conhecimento. O recurso foi lançado em fevereiro, desenhado para analisar grandes quantidades de informação.

Segundo a OpenAI, a falha foi corrigida no último dia 3 de setembro, e a Radware não encontrou evidências de que hackers tenham explorado a brecha para roubo de dados.

É possível, no entanto, que agentes maliciosos tenham guardado informações e as usem em ataques de phishing e outras iniciativas futuras.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Deep Research do ChatGPT e dados de usuários

Deep Research foi uma maneira que a OpenAI encontrou de permitir pesquisas mais robustas e respostas rápidas para perguntas complexas, trabalhando com maiores quantidades de dados online. Ela está disponível apenas em planos pagos do modelo de linguagem de larga escala (LLM) e, com autorização dos usuários, pode se conectar às suas contas do Gmail.

Para testar a vulnerabilidade, os especialistas da Radware enviaram e-mails a si mesmos com instruções escondidas para que o Deep Research pesquisasse a caixa de entrada do Gmail por informações pessoais, como endereço e nome completo. A IA deveria, em seguida, enviar os dados coletados a um endereço da web sob controle dos pesquisadores.

Segundo o Diretor de Pesquisa em Ameaças da empresa de segurança, Pascal Geenens, o usuário que teria os dados roubados sequer precisaria clicar em alguma coisa para que os cibercriminosos ganhassem acesso às suas informações — bastaria ter vinculado o Gmail ao buscador de LLM. Hackers têm usado ferramentas de inteligência artificial na condução de seus ataques, mas esse caso mostra um raro exemplo de exploração dos próprios agentes de IA para o roubo de dados.

Em comunicado, a OpenAI afirmou que pesquisadores costumam testar sistemas de forma a simular ataques, e considerou a análise uma adição bem-vinda; ela ajudou na melhoria das ferramentas da empresa. A segurança dos modelos de linguagem, segundo a companhia, é prioridade, e suas equipes seguem otimizando e aumentando os padrões da tecnologia para evitar brechas como essa.

Veja também:

Continua após a publicidade

VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Fonte: Radware