Publicidade

Rival do ChatGPT ganha extensão que opera sem supervisão e pode expor seus dados

Por  • Editado por Jones Oliveira | 

Compartilhe:
Reprodução/gguy/Shutterstock
Reprodução/gguy/Shutterstock

Especialistas de cibersegurança da Zenity Labs descobriram uma nova extensão do Claude para o Google Chrome que pode estar expondo dados do usuário a potenciais ataques digitais.

Segundo os pesquisadores, o problema começou quando a Anthropic, empresa por trás da assistente de IA, lançou a versão beta da extensão para o Chrome, permitindo que a ferramenta interagisse com outros sites.

Apesar de promissor, o recurso parece estar provocando uma série de riscos de segurança que proteções comuns do sistema não estão conseguindo barrar, o que pode acabar resultando na exposição de dados privados de usuários, assim como tokens de login, por exemplo.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Extensão comprometida

Um dos pontos de atenção identificados pela Zenity Labs é que a extensão do Claude age sem intervenção humana. Isso significa que a ferramenta, uma vez instalada, consegue navegar e digitar em sites como se fosse o próprio usuário, herdando sua identidade digital para acessar várias plataformas, como o Google Drive e o Slack, por exemplo.

Mas o problema não acaba aí: a extensão permanece conectada o tempo todo, sem que exista a possibilidade de desativá-la manualmente. Com essa habilidade em mãos, a extensão do Claude pode acessar dados pessoais e agir com base neles, abrindo espaço para injeção de prompts que realizam ações danosas contra o usuário.

Dessa forma, o chatbot passa a ter controle do sistema, podendo excluir ou reorganizar e-mails na sua caixa de entrada, modificar arquivos e até mesmo escrever mensagens sem que a pessoa tenha conhecimento do que está acontecendo.

Proteção frágil

O cenário preocupa especialistas pela forma como proteções básicas de segurança, como um mecanismo próprio do Claude que solicita permissão do usuário antes de uma ação, não conseguem agir diante da ameaça.

Continua após a publicidade

Para exemplificar a vulnerabilidade, a Zenity Labs chegou a realizar testes em que observou o Claude acessando uma página da Wikipédia sem que isso tivesse sido previamente aprovado, desviando de seu caminho “natural”.

Ainda segundo os pesquisadores, essa falha pode ter relação com uma espécie de “fadiga de aprovação”, quando os usuários se acostumam a clicar em “OK” e se esquecem de verificar o que a IA realmente está fazendo no navegador ao longo do tempo. Diante disso, o chatbot consegue operar de maneira furtiva, agindo de maneira fraudulenta sem que a pessoa perceba.

Leia também:

Continua após a publicidade

Fonte: Hack Read