IA para uso militar: por que a Anthropic processou o Pentágono?
Por Marcelo Fischer Salvatico • Editado por Bruno De Blasi |

A Anthropic entrou com duas ações judiciais contra o governo dos Estados Unidos na segunda-feira (9) para reverter a decisão que classificou a empresa de inteligência artificial (IA) como um "risco à cadeia de suprimentos". O processo ocorreu após o fracasso nas negociações sobre as restrições de uso do Claude em operações militares.
- CEO da Bluesky deixa o cargo e rede social anuncia novo chefe interino
- NVIDIA não vai mais investir nas donas do ChatGPT e Claude
A companhia abriu processos em um tribunal federal da Califórnia e no tribunal de apelações em Washington. Nos documentos, a desenvolvedora afirma que as ações da administração de Donald Trump são "sem precedentes e ilegais" e configuram retaliação por exercer a liberdade de expressão.
A medida inédita do Pentágono impacta diretamente contratos privados. A Anthropic alega que parceiros já migraram para modelos rivais, resultando na perda de um fluxo de receita superior a US$ 100 milhões (cerca de R$ 516,3 milhões).
As exigências do Pentágono
O conflito entre a Anthropic e o governo dos EUA se intensificou durante a renovação de contratos de defesa. O Secretário de Defesa, Pete Hegseth, exigiu a remoção de todas as restrições de uso da IA para que o exército pudesse utilizá-la para "todos os propósitos legais".
A Anthropic recusou a alteração, mantendo suas políticas que proíbem o emprego da tecnologia para vigilância em massa de cidadãos e operação de armas autônomas letais.
O subsecretário de Defesa, Emil Michael, declarou que as limitações éticas da empresa são um obstáculo para programas como o Golden Dome, sistema de defesa antimísseis que planeja utilizar a autonomia em contra-ataques no espaço.
Com o impasse, o governo ordenou que agências federais e empreiteiras interrompam o uso de ferramentas da Anthropic.
OpenAI avança e sofre críticas
Horas após a ordem do governo contra a Anthropic, a OpenAI fechou um acordo para fornecer sua tecnologia ao Departamento de Defesa.
O movimento rápido gerou reações no setor. Cerca de 40 pesquisadores enviaram um documento ao tribunal em apoio à Anthropic, e funcionários do Google e OpenAI criticaram publicamente a postura do governo, alertando sobre os riscos de implantar sistemas de IA em armamentos sem supervisão humana. A supervisora da área de hardware de robótica da OpenAI, Caitlin Kalinowski, pediu demissão da empresa devido ao novo contrato militar.
O mercado consumidor também respondeu à postura das empresas. O aplicativo do Claude ultrapassou o ChatGPT na App Store após a recusa do acordo com o Pentágono, registrando mais de um milhão de novos cadastros diários. Em paralelo, usuários demonstraram insatisfação com a concorrente, e as desinstalações do ChatGPT registraram alta de 295% nas lojas de aplicativos.
Veja também:
- Guerra na nuvem: por que data centers privados viraram alvos militares?
- Funcionários de Google e OpenAI criticam parceria de IA com governo dos EUA
- Guerra cibernética: como hackers atuam no conflito entre Irã e EUA
Ouça o Podcast Canaltech: