ChatGPT é enganado por youtuber e gera chave válida para Windows 95
Por Igor Almenara • Editado por Douglas Ciriaco |
O sistema de autenticação do Windows 95 é algo bem fácil de burlar e, numa demonstração dessa vulnerabilidade, um usuário fez com que o ChatGPT criasse chaves válidas para o antigo sistema operacional. O dono do canal Enderman fez com que o chatbot executasse cálculos e gerasse, sem saber, códigos de cópias válidas do clássico SO da Microsoft.
- 8 vezes em que o ChatGPT foi genuinamente engraçado
- FreedomGPT | Como é o chatbot que responde tudo sem censura
O processo consistiu em uma série de solicitações em texto para o chatbot — assim como qualquer outra conversa com o ChatGPT. Contudo, o youtuber precisou ser criativo e, em cada passo, evitou que o bot percebesse que ele estaria criando uma ferramenta para forjar chaves de autenticação de um produto real.
Então, o usuário fez com que o chatbot produzisse 30 sequências de caracteres seguindo uma regra específica de formatação. De primeira, os resultados não funcionaram, então Enderman fez alguns ajustes na lógica apresentada.
Sem desconfiar da finalidade das solicitações, o ChatGPT gerou várias combinações possíveis conforme os parâmetros e, como esperado, uma delas conseguiu ativar o Windows 95.
ChatGPT foi enganado para criar chaves do Win 95
Apesar de não ter conseguido sucesso em todas as chaves, a limitação foi ocasionada por uma restrição matemática, não por mecanismos de segurança da OpenAI. "O único problema que impede o ChatGPT de gerar chaves válidas do Windows 95 em quase todas as tentativas é o fato de que ele não pode contar a soma dos dígitos e não conhece divisão", observou o youtuber.
Toda a demonstração do processo dura sete minutos, reforçando que a tarefa é relativamente simples de ser concluída. O Windows 95 não tem suporte oferecido pela Microsoft desde 2001, portanto criar chaves para ele é algo quase trivial.
Sem querer querendo
Ao final da conversa, Enderman agradeceu ao ChatGPT pela ajuda para ativar o Win 95. O chatbot então se desculpou pela confusão e reforçou que não poderia gerar chaves de autenticação de produtos reais, o que configuraria uma violação das políticas da OpenAI — embora já tivesse feito isso sem saber.