Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

ChatGPT | Como os cibercriminosos podem explorar o poder da IA?

Por| 02 de Fevereiro de 2023 às 16h00

Link copiado!

Pexels/ Pavel Danilyuk
Pexels/ Pavel Danilyuk

Mesmo se você ainda não tenha visto o poder de criação e precisão do ChatGPT, provavelmente já deve ter visto essa palavra ou ouvido falar da inteligência artificial (IA) sensação da temporada. E, assim como qualquer outra tecnologia cheia de potencial para várias coisas úteis, o chatbot favorito dos adeptos à inovação também pode ser uma ferramenta para atividades maliciosas.

Para quem não conhece, o ChatGPT é um chatbot que pode criar textos muito parecidos com os de seres humanos. E quando falamos e “criar textos”, isso não se resume somente a gerar uma redação que rivaliza a de um bom escritor: abrange também a possibilidade de construir códigos de programação, rotinas de ação para máquinas e até mesmo emular mensagens de empresas ou de pessoas conhecidas.

Isso tudo é possível graças ao poderoso algoritmo e ao aprendizado de máquina do ChatGPT, que consegue compreender bem os comandos de humanos em vários idiomas e é capaz de executar uma rápida e vasta pesquisa para concatenar processos na forma de texto, das mais variadas maneiras e estilos.

Continua após a publicidade

Se por um lado esse salto da IA abre um enorme leque de possibilidades para facilitar o cotidiano das pessoas, também gera dúvidas sobre como será utilizado. E, bem, a má notícia é que o ChatGPT já vem sendo explorado por cibercriminosos para algumas atividades.

Como os cibercriminosos já vêm utilizando o ChatGPT?

Antes de mais nada, é sempre bom lembrar que os cibercriminosos sempre procuram maneiras de automatizar tarefas para gerar a maior variedade possível de golpes e diferentes abordagens, assim como para espalhar para o maior número de pessoas. O ChatGPT, então, pode ser uma ferramenta poderosa para esses fins.

O objetivo maior dos bandidos neste momento é usar o ChatGPT para invadir a privacidade das pessoas, violar a segurança e roubar dinheiro ou dados. Abaixo estão algumas das atividades já detectadas pela firma de proteção online McAfee:

Continua após a publicidade

Malwares via ChatGPT

Os malwares geralmente têm um ciclo de vida muito curto. Um cibercriminoso cria, infecta alguns dispositivos e, em seguida, os sistemas operacionais enviam uma atualização que protege combate a praga. Além disso, sites de tecnologia alertam e contribuem para derrubar ameaças emergentes.

Como o ChatGPT é capaz de escrever códigos maliciosos, também é usada para programar um malware polimórfico que evolui constantemente e dificulta a detecção — e consequentemente a defesa.

Além disso, o ChatGPT pode escrever montanhas de códigos maliciosos, ininterruptamente — sem as pausas que um humano precisaria para comer e dormir. Ou seja, cibercriminosos podem transformar uma operação de malware em uma máquina de crime digital de 24 horas, sete dias por semana.

Continua após a publicidade

Perfis de namoro falsos via ChatGPT

Catfish, ou pessoas que criam personas online falsas para atrair outras pessoas para relacionamentos, já estão começando a usar essa IA para golpes, acelerando a geração constante de perfis.

O ChatGPT é capaz de alterar o tom das mensagens de forma tão convincente que podem emular declarações de amor capazes de distrair alguém ao ponto de a vítima renunciar informações de identificação pessoal para transferências de dinheiro.

Phishing via ChatGPT

Continua após a publicidade

Os cibercriminosos que aplicam ataques de phishing geralmente são conhecidos por gramática e ortografia ruins. Mas o ChatGPT vêm ajudando esses bandidos a melhorarem a qualidade de suas mensagens.

O ChatGPT também entende comandos de tom, o que ajuda os phishers a aumentarem o caráter de urgência nas mensagens maliciosas, que exigem pagamento imediato ou respostas com senhas.

Como evitar golpes criados com o ChatGPT

Ainda é difícil detectar os textos gerados pelo ChatGPT que mais se parecem com os criados por seres humanos — a própria empresa responsável pela IA, a OpenIA, disponibilizou uma ferramenta para isso.

Continua após a publicidade

A melhor maneira de evitar ser enganado por algo gerado por IA, por enquanto, é estar em alerta máximo e examinar minuciosamente todos os textos, e-mails ou mensagens diretas que você recebe de estranhos. Existem alguns sinais indicadores, a exemplo de frases curtas e reutilização de palavras.

Além disso, a IA pode criar conteúdo que diz muito, sem formar opinião. No caso de golpes em relacionamentos amorosos, se a pessoa com quem você está se comunicando se recusar a abrir a câmera ou se encontrar pessoalmente, já considere como um sinal de alerta.