Publicidade

Golpistas envenenam buscas de IA com falsos números de suporte

Por  • Editado por Jones Oliveira | 

Compartilhe:
Aerps.com/Unsplash
Aerps.com/Unsplash

As técnicas de envenenamento de IA e injeção de prompt, acompanhando a evolução dos próprios large language models (LLMs), também estão ficando mais avançadas. Agora, cibercriminosos estão promovendo números falsos de call center e suporte ao cliente nas fontes públicas usadas pelos chatbots.

A análise, publicada na última segunda-feira (8) pela Aurascape e realizada pela equipe Aura Labs, revelou uma manipulação sistemática das fontes públicas de dados, o que foi chamado pelos pesquisadores de “envenenamento de números de telefone de LLM”. IAs afetadas incluem a Visão Geral da Google e o navegador Comet, da Perplexity.

Envenenamento de telefones na LLM

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A diferença nesse tipo de ataque, de acordo com o estudo, é que a técnica não mira diretamente nos modelos de linguagem, mas sim em afetar o conteúdo que os chatbots pesquisam para dar suas respostas. Pense na Search Engine Optimization (SEO), ou otimização de motor de busca, em tradução livre, que consiste em modelar o conteúdo para que buscadores como o Google recomendem mais a sua página web.

O que ocorre nesse caso é a otimização de motor generativo (Generative Engine Optimization, GEO), que procura garantir que um site ou serviço online vire uma fonte usada para resumos de IA e pesquisas em chatbots. Isso é feito pelos golpistas ao subir conteúdo de spam em sites legítimos e confiáveis que foram comprometidos, como governamentais e de universidades.

Serviços públicos que permitem conteúdo gerado por usuários também são abusados, como YouTube e Yelp, recebendo respostas e números de telefone falsos. Casos notados pelos pesquisadores incluem resultados de busca pelo número oficial de reservas para Emirate Airlines e British Airlines, que retornam call centers fraudulentos como se fossem respostas legítimas.

O problema principal, de acordo com a Aurascape, é que as LLMs puxam tanto conteúdo legítimo quanto fraudulento, dificultando a detecção de golpes. Isso tem o potencial de afetar não só Google e Perplexity, mas chatbots de IA como um todo.

A recomendação aos usuários é de sempre checar, na fonte e em outros sites, a veracidade da informação oferecida, especialmente no que tange a números de contato. Também é preciso evitar oferecer qualquer informação sensível a assistentes de IA, especialmente se lembrarmos o quão pouco eles foram testados até hoje: a conveniência da IA não quer dizer, de forma alguma, que ela é segura.

Leia também:

Continua após a publicidade

VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?

Fonte: Aurascape