Publicidade

Nova falha no ChatGPT permite roubo de dados e histórico de conversas

Por  • Editado por Jones Oliveira | 

Compartilhe:
Reprodução/Distrito
Reprodução/Distrito

Com a popularidade do ChatGPT em alta, a ferramenta de inteligência artificial (IA) entrou na mira dos cibercriminosos. Um relatório da Tenable Research encontrou sete falhas de segurança na plataforma da OpenAI que permitem roubos de dados dos usuários e até mesmo controle do chatbot.

Os especialistas em cibersegurança apostaram na demonstração Proof-of-Concept (PoC) para ver na prática como as vulnerabilidades estavam sendo exploradas pelos criminosos, encontrando algumas práticas preocupantes para os usuários do ChatGPT.

A descoberta revelou que a ameaça está em uma falha identificada como “injeção de prompt”, que consiste no envio de instruções maliciosas ao chatbot. Tudo é feito secretamente, sem que o usuário perceba o que realmente está acontecendo, já que esses dados comprometidos estão escondidos em uma fonte externa.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O ataque na prática

duas formas encontradas pelos especialistas de como as falhas do ChatGPT podem ser exploradas pelos cibercriminosos.

A primeira delas é quando o hacker insere um comentário em um blog que traz um prompt malicioso. Caso o usuário peça à ferramenta da OpenAI para resumir o que está escrito na página, o ChatGPT pode ser enganado com o comando.

Já o segundo exemplo consiste em um ataque de clique zero, sem que o usuário precise interagir ativamente para que o crime aconteça. Nesse caso, o hacker pode criar um site, por exemplo, indexando na ferramenta de busca do ChatGPT. Dessa forma, a IA pode esbarrar no código malicioso e compromete a vítima sem que ela faça qualquer tipo de ação.

Ataques duradouros

Outra descoberta da Tenable Research é como esses ataques conseguem passar despercebidos pelo sistema de segurança da ferramenta de IA, além de também serem duradouros.

O alerta mais grave está no que os especialistas chamam de “memory injection” (injeção de memória, em tradução literal). A falha permite que prompts comprometidos fiquem salvos no histórico permanente do usuário, abrindo espaço para que o código malicioso roube dados sensíveis da vítima toda vez que ela interage com o chatbot.

Continua após a publicidade

Outra forma que os cibercriminosos encontraram de burlar o sistema de segurança do ChatGPT é usando links de rastreamento do Bing. Nesse caso, eles conseguem coletar as informações pessoais dos usuários de maneira imperceptível.

Desafio para as empresas de IA

Todas as táticas analisadas mostram como a IA pode enganar a si mesma com um empurrãozinho de atividades criminosas, seguindo instruções corrompidas que o usuário não consegue identificar durante a interação com a ferramenta.

Continua após a publicidade

Em entrevista ao Hack Read, o especialista em cibersegurança James Wickett explicou como a injeção de prompt é, atualmente, um dos maiores problemas de segurança para plataformas baseadas em modelos de linguagem de grande escala.

“A injeção de prompts é o principal risco de segurança para sistemas baseados em LLM por um motivo. A recente pesquisa sobre o ChatGPT mostra como é fácil para os criminosos inserirem instruções ocultas em links, markdown, anúncios ou no histórico, fazendo com que o modelo execute ações para as quais nunca foi projetado”, esclarece.

A OpenAI foi informada acerca da falha de segurança, confirmada até o momento nos modelos ChatGPT 4o e GPT-5, mas ainda não há informações sobre a correção da vulnerabilidade.

Leia também:

Continua após a publicidade

Fonte: Hack Read