Publicidade

Medida inédita: EUA classificam Anthropic como 'risco à cadeia de suprimentos'

Por  • Editado por Bruno De Blasi | 

Compartilhe:
Marcelo Fischer/Canaltech
Marcelo Fischer/Canaltech

O Departamento de Defesa dos Estados Unidos classificou oficialmente a desenvolvedora de inteligência artificial (IA) Anthropic como um "risco à cadeia de suprimentos" na última quinta-feira (5). 

A medida — inédita para uma empresa americana —  ocorre após a companhia se recusar a liberar o uso de seu modelo, Claude, para vigilância em massa e desenvolvimento de armas autônomas. O CEO da Anthropic, Dario Amodei, declarou que a ação carece de base legal e será contestada judicialmente.

A classificação de risco à cadeia de suprimentos é um rótulo historicamente aplicado a firmas estrangeiras ligadas a governos adversários. 

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A determinação proíbe fornecedores militares de utilizarem o Claude como parte direta de contratos com o Departamento de Defesa. O Pentágono justificou a ação afirmando que as Forças Armadas precisam usar a tecnologia para todos os propósitos legais. O órgão argumentou que não permitirá a imposição de restrições em capacidades críticas por parte de fornecedores.

O alcance da medida governamental possui limitações no setor privado. A lei de risco à cadeia de suprimentos exige o uso dos meios restritivos mínimos necessários. 

Empresas contratadas pelo governo mantêm a permissão para uso do Claude e relações comerciais com a Anthropic em projetos não relacionados à defesa. A Microsoft, por exemplo, confirmou a continuidade da oferta dos produtos da Anthropic para seus clientes corporativos fora do escopo militar.

O conflito entre a Anthropic e o governo dos EUA

A tensão entre a startup de IA e o Pentágono escalou no final de fevereiro de 2026. 

O Secretário de Defesa, Pete Hegseth, estabeleceu um prazo para a Anthropic remover suas restrições de segurança. Diante da recusa de Amodei, o presidente Donald Trump ordenou o fim do uso da tecnologia da empresa por todas as agências federais. 

A saída da Anthropic resultou em movimentações da concorrência. A OpenAI assinou um acordo com o Departamento de Defesa focado na implementação de seus modelos em redes classificadas. 

O CEO da OpenAI, Sam Altman, defendeu que a arquitetura via nuvem de seus sistemas impede a integração direta da IA em armamentos. Altman contatou o Pentágono para expressar discordância com a classificação da Anthropic como risco à segurança.

Continua após a publicidade

O posicionamento da Anthropic gerou uma resposta rápida dos consumidores norte-americanos. O aplicativo Claude atingiu a primeira posição na App Store nos Estados Unidos. 

A desenvolvedora registrou um aumento de 60% no número de usuários gratuitos no país, acompanhado de um recorde de acessos diários na plataforma. 

Veja também:

Continua após a publicidade

Ouça o Podcast Canaltech: