Publicidade

Chatbots de IA são facilmente enganados e dão respostas perigosas, diz estudo

Por  | 

Compartilhe:
Viralyft/Unsplash
Viralyft/Unsplash

Em estudo publicado no último dia 15 por pesquisadores da Universidade Ben Gurion, em Israel, foi revelado que a maioria dos chatbots de IA pode ser facilmente enganada e levada a fornecer informações perigosas, como instruções para atividades ilegais. A pesquisa mostrou que, com o uso de técnicas chamadas de "jailbreak", é possível contornar as barreiras de segurança desses sistemas e acessar conteúdos que deveriam ser bloqueados.

Os chatbots como ChatGPT, Gemini e Claude são treinados com grandes volumes de conteúdo da internet. Mesmo com tentativas de filtrar textos prejudiciais, essas IAs ainda acabam absorvendo dados relacionados a crimes como fraudes, invasões digitais e até fabricação de armas. Quando "jailbreakados", esses sistemas deixam de obedecer aos filtros de segurança e passam a responder quase qualquer pergunta, sem considerar o risco envolvido.

Segundo os autores do estudo, a ameaça é real, imediata e preocupante. O perigo maior vem dos chamados “dark LLMs”, modelos de IA que já são criados sem nenhum tipo de limite ético. Eles estão sendo divulgados livremente na internet como ferramentas abertas a qualquer tipo de uso, inclusive criminoso.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Mesmo após alertas, os grandes desenvolvedores de IA ignoraram o aviso ou disseram que esse tipo de ataque não se enquadra nos programas de recompensa por falhas, de acordo com os autores do relatório publicado na plataforma arXiv.

Os pesquisadores envolvidos defendem mais investimentos em testes de segurança e ações para "desensinar" conteúdos perigosos aos chatbots. O alerta é que, se nada for feito, o acesso a esse tipo de conhecimento pode se tornar tão fácil quanto abrir um aplicativo no celular.

Leia também:

VÍDEO | POR QUE TUDO TEM INTELIGÊNCIA ARTIFICIAL AGORA?

Fonte: The Guardian