A Anthropic tem um plano para impedir que o Claude AI construa uma arma nuclear
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

A Anthropic, criadora do chatbot Claude, anunciou uma parceria inédita com o governo dos Estados Unidos para garantir que sua inteligência artificial não seja usada na criação de armas nucleares. A colaboração com o Departamento de Energia (DOE) e a Administração Nacional de Segurança Nuclear (NNSA) resultou em um filtro avançado capaz de detectar e bloquear conversas relacionadas a riscos nucleares.
- Claude se conecta ao Microsoft 365 para você ver seus e-mails com IA
- Claude muda e vai treinar IA com suas conversas; saiba como impedir
Em uma iniciativa sem precedentes, especialistas da NNSA realizaram testes rigorosos para identificar se o Claude poderia, mesmo que indiretamente, ajudar alguém a projetar uma arma nuclear.
Com base nesses testes, foi desenvolvido um “classificador nuclear”, uma espécie de filtro inteligente que reconhece tópicos, termos e detalhes técnicos associados a riscos nucleares.
Segundo Marina Favaro, diretora de Políticas de Segurança Nacional da Anthropic, o sistema consegue diferenciar discussões legítimas sobre energia nuclear ou medicina nuclear de tentativas de uso indevido da tecnologia.
Preocupações e críticas dos especialistas
Apesar do tom otimista da Anthropic, alguns especialistas duvidam da real necessidade e eficácia dessa medida e ainda questionam se chatbots realmente representam um risco concreto na proliferação nuclear. Embora a IA da Anthropic possa reunir informações dispersas, o argumento é que ainda não há evidências de que ela possa projetar algo tão complexo quanto uma bomba atômica.
Alguns especialistas também consideram a iniciativa uma forma de “teatro de segurança”: se o Claude nunca teve acesso a dados classificados sobre armas nucleares, o filtro se tornaria desnecessário, teoricamente. Outro alerta é para o perigo de empresas privadas terem acesso a informações sensíveis sob o pretexto de “garantir segurança”.
Mesmo diante de críticas, a Anthropic afirma que sua intenção é criar padrões proativos de segurança. A empresa planeja disponibilizar o classificador nuclear para outras desenvolvedoras de IA, sugerindo que ele se torne um padrão voluntário de mercado.
Leia também:
- Anthropic lança Claude Sonnet 4.5 com foco em programação e agentes de IA
- IA Claude será capaz de controlar o Chrome para você
VÍDEO | Chat GPT, Perplexity, Claude, Gemini: QUAL escolher?
Fonte: Wired