Nova falha no ChatGPT permite roubo de dados e histórico de conversas
Por Jaqueline Sousa • Editado por Jones Oliveira |

Com a popularidade do ChatGPT em alta, a ferramenta de inteligência artificial (IA) entrou na mira dos cibercriminosos. Um relatório da Tenable Research encontrou sete falhas de segurança na plataforma da OpenAI que permitem roubos de dados dos usuários e até mesmo controle do chatbot.
- Teste mostra que IA "cai em golpe" de marketing e não serve para fazer compras
- Oito anos de perigo: conheça a falha do Windows que a Microsoft ignora
Os especialistas em cibersegurança apostaram na demonstração Proof-of-Concept (PoC) para ver na prática como as vulnerabilidades estavam sendo exploradas pelos criminosos, encontrando algumas práticas preocupantes para os usuários do ChatGPT.
A descoberta revelou que a ameaça está em uma falha identificada como “injeção de prompt”, que consiste no envio de instruções maliciosas ao chatbot. Tudo é feito secretamente, sem que o usuário perceba o que realmente está acontecendo, já que esses dados comprometidos estão escondidos em uma fonte externa.
O ataque na prática
Há duas formas encontradas pelos especialistas de como as falhas do ChatGPT podem ser exploradas pelos cibercriminosos.
A primeira delas é quando o hacker insere um comentário em um blog que traz um prompt malicioso. Caso o usuário peça à ferramenta da OpenAI para resumir o que está escrito na página, o ChatGPT pode ser enganado com o comando.
Já o segundo exemplo consiste em um ataque de clique zero, sem que o usuário precise interagir ativamente para que o crime aconteça. Nesse caso, o hacker pode criar um site, por exemplo, indexando na ferramenta de busca do ChatGPT. Dessa forma, a IA pode esbarrar no código malicioso e compromete a vítima sem que ela faça qualquer tipo de ação.
Ataques duradouros
Outra descoberta da Tenable Research é como esses ataques conseguem passar despercebidos pelo sistema de segurança da ferramenta de IA, além de também serem duradouros.
O alerta mais grave está no que os especialistas chamam de “memory injection” (injeção de memória, em tradução literal). A falha permite que prompts comprometidos fiquem salvos no histórico permanente do usuário, abrindo espaço para que o código malicioso roube dados sensíveis da vítima toda vez que ela interage com o chatbot.
Outra forma que os cibercriminosos encontraram de burlar o sistema de segurança do ChatGPT é usando links de rastreamento do Bing. Nesse caso, eles conseguem coletar as informações pessoais dos usuários de maneira imperceptível.
Desafio para as empresas de IA
Todas as táticas analisadas mostram como a IA pode enganar a si mesma com um empurrãozinho de atividades criminosas, seguindo instruções corrompidas que o usuário não consegue identificar durante a interação com a ferramenta.
Em entrevista ao Hack Read, o especialista em cibersegurança James Wickett explicou como a injeção de prompt é, atualmente, um dos maiores problemas de segurança para plataformas baseadas em modelos de linguagem de grande escala.
“A injeção de prompts é o principal risco de segurança para sistemas baseados em LLM por um motivo. A recente pesquisa sobre o ChatGPT mostra como é fácil para os criminosos inserirem instruções ocultas em links, markdown, anúncios ou no histórico, fazendo com que o modelo execute ações para as quais nunca foi projetado”, esclarece.
A OpenAI foi informada acerca da falha de segurança, confirmada até o momento nos modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre a correção da vulnerabilidade.
Leia também:
- Falha crítica no WordPress deixa hackers tomarem controle total de sites
- Novo malware usa API do ChatGPT para se "esconder" e roubar dados
- IA de segurança do Google, "Big Sleep" descobre 5 vulnerabilidades no Safari
Fonte: Hack Read