Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Como o ChatGPT pode ser um aliado na segurança cibernética?

Por| Editado por Claudio Yuge | 17 de Abril de 2023 às 18h20

Link copiado!

Freepik
Freepik

“Um dos maiores desafios que a indústria de cibersegurança já enfrentou.” Foi assim que o CEO da Microsoft, Satya Nadella, falou do estado atual da proteção cibernética, em um momento no qual criminosos contam com as próprias habilidades e uma bela ajudinha da inteligência artificial para desenvolver malware, tentativas de phishing ou localizar falhas de segurança. “É um jogo de inteligência em tempo real”, disse ele, um em que a agilidade é a chave e a resposta pode vir na mesma moeda.

Normalmente citadas como grandes aliadas dos cibercriminosos, tecnologias como o ChatGPT também podem ser empregadas do outro lado desse espectro, auxiliando defensores a tomarem decisões mais acertadas, fecharem portas que nem notaram estar abertas e, acima de tudo, mantando uma vigilância constante. Os ataques vem de todos os lugares, até daqueles que os olhos humanos não podem ver, com a IA preenchendo essa lacuna.

Não é de hoje que a inteligência artificial é uma realidade no mercado de segurança digital. A Sophos, uma das principais empresas do setor, aponta que começou a utilizar recursos assim em 2017; de lá para cá, porém, o foco mudou, com o aprendizado de máquina e a arquitetura em larga escala assumindo o primeiro plano. Na pegada do ChatGPT, vieram também os sistemas de visualização de informações e interação entre humanos e IAs.

Continua após a publicidade

“O cibercrime explora estas ferramentas e os fornecedores de opções de proteção também necessitam estar rapidamente antenados para gerar inovação, um dos grandes pilares para a segurança em geral”, aponta André Carneiro, diretor geral da Sophos no Brasil. “As novas tecnologias precisam ser integradas ao portfólio de produtos [de segurança].”

O endosso de uma gigantesca multinacional a tecnologias assim apenas leva o mercado adiante. No final de março, a Microsoft anunciou o desenvolvimento do Security Copilot, uma ferramenta de análise focada em segurança da informação e baseada na tecnologia do ChatGPT-4. Ainda em fase de testes, o sistema vem com o intuito de reduzir a carga de trabalho e facilitar a realização de varreduras, monitoramento de segurança e até engenharia reversa de malware, além de aprender com as tendências e inteligência de ameaças, bem como com sua própria utilização.

Uma base de trilhões de sinais de ameaça serve como o fundo para a plataforma, que transforma essa gigantesca análise de dados em insights utilizáveis no dia a dia das equipes de segurança. “Segurança é um esporte de equipe e plataformas assim podem ajudar a equilibrar o plano de aprendizado, romper barreiras de idioma e trazer mais gente para o mercado”, comentou Vasu Jakkal, vice-presidente corporativa de segurança, compliance, identidade e privacidade da Microsoft, durante evento em que o Security Copilot foi apresentado.

Continua após a publicidade

“O ChatGPT-4 é centenas de vezes mais poderoso que a versão anterior”, aponta Carneiro, indicando que o uso da tecnologia abre as portas para soluções mais sofisticadas, que diante de ataques cibernéticos igualmente avançados, se tornarão essenciais para o mercado corporativo. Segundo ele, a novidade também deve trazer novas visões para os produtos que, hoje, já usam a inteligência artificial generativa como base para insights e atuação direta.

Segurança também para quem é de dentro

A base de tecnologias desse tipo é o aprendizado; a máquina adquire mais e mais conhecimento na medida em que vai sendo usada e apresentada a novos conjuntos de dados. No caso da versão pública do ChatGPT, uma busca feira por você, que lê esse texto, pode auxiliar a trazer resultados melhores também para os outros usuários. Quando se fala do mercado corporativo e de segredos internos, porém, esse compartilhamento pode não ser algo exatamente desejável.

Continua após a publicidade

É uma faca de dois gumes: ao mesmo tempo em que há a necessidade de acesso a um maior volume de informação, o que aumenta a eficácia da IA, restrições no acesso a dados podem desacelerar esse processo. “É importante a criação de uma política de segurança e o fornecimento das devidas orientações para que os usuários não façam uso de informações privadas da companhia em uma ferramenta pública”, explica Carneiro.

Aqui, as abordagens diferentes. No Security Copilot, por exemplo, a solução foi limitar o aprendizado de máquina a cada organização, com os insights de uma não sendo usadas para treinar a IA de outra, a não ser que a própria empresa decida compartilhar informações. O banco de dados da Microsoft, como dito, tem trilhões de sinais e serve a todos, o que por si só, já faz com que o sistema tenha uma bela base para começar a aprender.

Em corporações menores pode não ser tão simples ou eficaz assim. O diretor geral da Sophos indica o uso de APIs como uma saída para essa questão, com o desenvolvimento de soluções internas e privadas que usem filtros que não permitam a indexação de elementos sensíveis. Para o executivo, essa é uma tendência futura para as organizações.

Continua após a publicidade

“A melhor defesa neste momento é a conscientização constante de seus funcionários. É importante lembrar que a rede neural é interligada, com a configuração e determinação correta do que pode ou não ser catalogado devendo ser vem orquestrada”, continua. “Assim, se garante que os usuários não façam uso de informações privadas em uma ferramenta pública.”

Carneiro aponta ainda essa como uma tendência que conversa diretamente com as legislações governamentais. Da mesma forma que, hoje, há regras sobre o que pode ser compartilhado ou não com empresas parceiras, o mesmo também deve se aplicar a inteligências artificiais como o ChatGPT, com a regulamentação destes filtros citados, principalmente, em relação às grandes plataformas de dados.

Novamente, o cibercrime entra em jogo, com a ideia de que uma plataforma “alternativa” entregaria justamente aquilo que as oficiais não podem fazer. “Programas de menor expressão poderão ser explorados para fornecer informações não permitidas, criando ferramentas paralelas não aderentes a controles e leis governamentais”, pondera.

Há de existir, porém, um equilíbrio no jogo, ainda que, fora das normas, a tecnologia chegue primeiro e acabe sendo usada para o mal. “A criação de novas tecnologias é sempre bem-vinda e determinante para que outras técnicas e ferramentas sejam desenvolvidas”, finaliza o executivo. “O importante para o mercado é entender como extrair a melhor parte de uma nova solução em prol de melhorias constantes.”