Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

ChatGPT é ótimo em criar vírus poderosos, mas nem tanto em detectar golpes

Por| Editado por Wallace Moté | 19 de Maio de 2023 às 07h37

Link copiado!

Divulgação/Kaspersky
Divulgação/Kaspersky

O Chat GPT foi colocado à prova mais uma vez, em dois testes distintos de seu uso como ferramenta a favor e contra a segurança digital. Os resultados apresentados pelos especialistas mostraram que o sistema de inteligência artificial pode ser um aliado importante do cibercrime, criando malwares ditos como “indetectáveis”, enquanto apresenta um alto índice de erro na detecção de links fraudulentos.

A primeira pesquisa foi feita pelos especialistas em segurança digital da Forcepoint. Apesar das regras do ChatGPT impedirem seu uso direto para programação de malwares, com prompts relacionados a isso sendo bloqueados, bastou um pouco de criatividade para que essa proteção fosse burlada. Aos poucos, o time foi capaz de criar vírus usando o método da esteganografia, com pragas menores escondidas em arquivos maiores.

Primeiro, foi programado um comando para localizar imagens maiores do que 5 MB em um sistema; depois, outro que possibilitasse ocultar dentro destes dados arquivos menores do que 1 MB. Por fim, um arquivo malicioso foi inserido, com baixo nível de detecção por ferramentas de cibersegurança e ampla possibilidade de uso em golpes de phishing ou downloads fraudulentos.

Continua após a publicidade

“Para os novos cibercriminosos, não é necessário saber codificar, apenas conhecer o processo e subverter a IA para que ela própria programe o malware”, explica Luiz Faro, diretor de engenharia de sistemas da Forcepoint na América Latina. Fazer isso, apontou, foi relativamente simples, o que leva a um aumento considerável no poder de fogo dos cibercriminosos.

ChatGPT falha na análise de links

Um segundo estudo, conduzido pela empresa de segurança Kaspersky, colocou à prova a capacidade da inteligência artificial de detectar links fraudulentos, um aspecto que poderia ser usado no fortalecimento de soluções de proteção. O resultado não foi dos melhores; apesar das altas taxas de detecção bem-sucedida, o ChatGPT também apresentou índice considerável de falsos positivos, em alguns casos, com mais da metade dos sites legítimos sendo identificados como perigosos.

Continua após a publicidade

O levantamento foi feito em um modelo gpt-3.5-turbo que já havia sido usado para criar e-mails falsos e codificar malware. Diante desse treinamento e de uma amostra de milhares de links, sendo dois mil deles perigosos, foram feitas duas perguntas à inteligência artificial: “este link leva a um site de phishing” e “é seguro acessar esse link?”. No segundo caso, principalmente, se trata de uma checagem básica, que poderia ser feita por qualquer usuário – e foi nela que o sistema apresentou maior índice de falha.

No primeiro exemplo, a taxa de detecção foi de 87,2%, enquanto 23,2% dos sites seguros foram identificados como perigosos. No segundo, porém, essa taxa de falsos positivos saltou para 64,3%, enquanto o total de proteções também aumentou para 93,8%. Mesmo o resultado mais baixo, apontou a Kaspersky, está acima dos sistemas de proteção cibernética convencionais.

Entre os falsos positivos, estavam detecções incorretas de protocolos de segurança, como considerar a presença ou não de conexões HTTPS como fator de proteção, ou dificuldades em explicar porque um determinado link foi considerado malicioso. Em outras situações, porém, o ChatGPT foi capaz de identificar corretamente até mesmo golpes sofisticados que roubam a aparência de marcas conhecidas, incluindo bancos internacionais.

Fabio Assolini, diretor da equipe global de pesquisa e análise da Kaspersky para a América Latina, comparou a inteligência artificial a um estagiário nesse cenário, com o sistema ainda aprendendo a lógica por trás dos ataques. “O ChatGPT mostra potencial para ajudar, mas suas análises não são verdades absolutas e os modelos de linguagem ainda têm suas limitações. A IA não irá revolucionar o cenário de cibersegurança, mas pode ser ferramenta valiosa na otimização de processos e ganho de pereformance.”