ChatGPT expôs conversas com logins e senhas de usuários
Por Felipe Demartini • Editado por Wallace Moté |
Uma falha grave de privacidade no ChatGPT pode expor conversas a terceiros desconhecidos. Os dados vazados incluiriam não apenas registros de papos completos com a inteligência artificial, mas também informações confidenciais, incluindo logins e senhas, que tenham sido compartilhadas em tais papos com o bot.
- ChatGPT é ótimo em criar vírus poderosos, mas nem tanto em detectar golpes
- Como saber se seus dados estão no maior vazamento da história
A brecha foi publicada pelo site Ars Technica, que disse ter recebido sete registros de leitores. Em todos, a alegação é de que chats salvos por outras pessoas apareceram em suas contas de maneira aleatória, expondo as informações alimentadas por eles ao ChatGPT para a resolução de problemas ou obtenção de respostas.
No caso mais grave, o funcionário de uma farmácia online reclama abertamente sobre os desenvolvedores de um sistema interno, enquanto pede ajuda do ChatGPT para solucionar problemas de funcionamento no software. Registros completos de suporte técnico, com direito a login e senha do portal, foram copiados na conversa com a inteligência artificial e acabaram expostos a pelo menos uma outra pessoa sem ligação alguma com a empresa.
Em outros casos, a brecha envolveu o acesso não autorizado a documentos de pesquisa econômica, um script PHP ainda em desenvolvimento por uma empresa de tecnologia e uma apresentação de marketing. Em todos os casos, ainda que credenciais de acesso não estivessem disponíveis, foi possível encontrar informações que deveriam ser confidenciais.
Não é nem a primeira vez que isso acontece, aliás. Em março do ano passado, o ChatGPT teve de ser desligado às pressas depois que um bug fez com que os títulos de conversas de usuários começassem a ser exibidos para pessoas aleatórias. Na ocasião, porém, não era possível acessar o chat em si, o que acabou limitando a exposição de informações.
OpenAI investiga possível erro de sistema
A causa mais provável do bug é uma falha em dispositivos responsáveis por manter o chatbot no ar. Como forma de economizar recursos e banda (de tráfego), eles podem armazenar certas informações em cache; estas seriam as informações exibidas a terceiros, devido a problemas de rota ou configuração destes aparelhos.
Em resposta oficial ao Ars Technica, a OpenAI, que é a responsável pelo ChatGPT, disse apenas que investiga o caso. Enquanto isso, vale reforçar a indicação de segurança de sempre: evite compartilhar informações pessoais e principalmente dados sensíveis com sistemas de inteligência artificial, já que tais dados serão usados para treinar a tecnologia.
Isso já fez com que empresas como a Samsung proibissem seus funcionários de usarem o ChatGPT e outras IAs generativas na rotina de trabalho. O histórico de problemas de segurança vai além, com o Brasil inclusive figurando como o terceiro país mais atingido em um grande vazamento de dados do chatbot, em junho de 2023.
Fonte: Ars Technica