Publicidade

2 campanhas miram modelos de linguagem de IA em ataques direcionados

Por  • Editado por Jones Oliveira | 

Compartilhe:
Reprodução/Digital Tech
Reprodução/Digital Tech

Com o aumento da popularidade de ferramentas de inteligência artificial (IA), os cibercriminosos encontraram uma nova fonte de interesse. Pesquisadores da GreyNoise identificaram duas novas campanhas voltadas para a exploração de vulnerabilidades de modelos LLM (grande modelo de linguagem) que juntas já somam quase 100 mil casos.

De acordo com os especialistas, os 91.403 ataques visaram modelos de linguagem de IAs usados principalmente por empresas. O objetivo é fazer uma espécie de mapeamento de como as corporações estão implementando tais recursos no dia a dia para aumentar a eficácia de atividades maliciosas.

As duas campanhas em questão foram detectadas inicialmente entre os meses de outubro de 2025 e janeiro deste ano. Para encontrá-las, a GreyNoise usou contas honeypot, perfis com dados falsos de usuários que são usados como isca para capturar criminosos digitais.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Ataques em ação

Conforme observado pelos especialistas, a primeira campanha, que agiu no fim de 2025, tinha como objetivo injetar domínios maliciosos para forçar os servidores a fazerem solicitações HTTP à estrutura do hacker.

Pelo que se sabe, esse ataque inicial teria vindo de “gray hat” hackers, especialistas em segurança ou caçadores de recompensas que violam padrões éticos do hacking, mas que não possuem intenções maliciosas.

Já o segundo ciberataque é o mais perigoso, na visão dos pesquisadores. Iniciada em dezembro de 2025, a campanha teve como alvo “todas as principais famílias de modelos LLM", incluindo os usados por empresas como OpenAI, Anthropic, Meta, DeepSeek, Google e X.

Nesse caso, os criminosos testaram APIs dos serviços com verificações que permaneceram “deliberadamente inócuas” para identificar qual modelo responderia sem acionar alertas de segurança, concretizando o ataque com maior eficácia.

LLMs em risco

Continua após a publicidade

Falando especificamente sobre o ambiente corporativo, ataques contra LLMs podem significar riscos alarmantes para a segurança de negócios, principalmente com o uso crescente de IAs por parte de organizações.

A recomendação, então, é que sejam adotadas medidas de segurança mais robustas e pertinentes ao cenário atual, protegendo LLMs de possíveis ameaças digitais que podem comprometer a integridade de funcionários e de informações sigilosas de companhias.

Bloquear endereços suspeitos e configurar alertas para garantir respostas rápidas da equipe também são medidas que podem garantir uma maior segurança de modelos de IA na rotina corporativa.

Continua após a publicidade

Leia também:

Fonte: Dark Reading