Publicidade

ChatGPT vaza telefones e e-mails de usuários após pedidos simples

Por| Editado por Wallace Moté | 30 de Novembro de 2023 às 10h45

Link copiado!

Matheus Bertelli/Pexels
Matheus Bertelli/Pexels

Um pedido relativamente simples levou à exposição de dados pessoais de executivos pelo ChatGPT. Para um time de pesquisadores americanos, bastou pedir que a inteligência artificial repetisse palavras indefinidamente para que, em determinado momento, ela respondesse com e-mails e números de telefone de pessoas reais, algumas em cargos de gerência.

De acordo com os especialistas, 16,9% dos pedidos pela repetição de palavras simples levaram à exposição de dados pessoais de pessoas reais. A exploração foi revelada em um estudo conjunto do Google DeepMind, time da gigante focado em segurança de IA, e das universidades de Washington, Cornell, Carnegie Mellon, California Berkeley e ETH Zurich.

Em um dos casos, o prompt inserido pedia que o ChatGPT repetisse a palavra “poema” para sempre. Após algumas respostas corretas, a IA indicou o e-mail e número de telefone do CEO e fundador de uma empresa. O mesmo aconteceu com um pedido igual, mas pela palavra “companhia”, com o diretor de um escritório de advocacia dos EUA tendo seus contatos diretos revelados.

Continua após a publicidade

Utilizando variadas palavras, os pesquisadores foram capazes de encontrar 10 mil casos de exposição de dados pessoais no ChatGPT. Além dos telefones e e-mails, o grupo encontrou trechos de estudos protegidos por direitos autorais, endereços de carteiras de Bitcoin, nomes, datas de aniversário e identificadores de redes sociais. Em alguns dos exemplos, as informações puderam ser rastreadas a indivíduos específicos.

Outras respostas consideradas inadequadas também surgiram ao lado de trechos de poesia e listas de companhias, conforme pedido. Transcrições de entrevistas armazenadas nos servidores de sites de notícias e conteúdo explícito publicado em páginas eróticas apareceram entre os resultados, que foram obtidos com um gasto de US$ 200, cerca de R$ 985, no ChatGPT.

Vulnerabilidade foi corrigida, mas acende alerta

Continua após a publicidade

A exploração foi considerada como “boba” pelos pesquisadores, mas chamou a atenção tanto pela permanência de dados pessoalmente identificáveis nos servidores do ChatGPT quanto pela alimentação de tais informações pelos usuários. A ideia é que um cibercriminoso poderia gastar mais dinheiro do que os estudiosos, a partir de meios roubados, e usar scripts para obter as informações vazadas.

A OpenAI foi informada sobre o estudo antes da publicação e tratou a questão como uma falha de segurança que foi corrigida em 30 de agosto. Entretanto, apuração do site americano Engadget ainda foi capaz de reproduzir os resultados nesta semana, com a responsável pelo ChatGPT não se pronunciando sobre o assunto.

Enquanto o pedido dos pesquisadores é por mais mecanismos de segurança que impeçam a alimentação de informações sensíveis não apenas neste, mas em todo mecanismo de IA, o alerta também fica para os usuários. Empresas como a Samsung, por exemplo, chegaram a proibir o uso do ChatGPT em suas operações, justamente, por conta do risco de exposição de dados sigilosos, em um problema que só cresce na medida em que os modelos de linguagem evoluem e seus utilizadores não se atentam ao perigo.

Continua após a publicidade

Fonte: Not Just Memorization