O Departamento de Defesa dos Estados Unidos (DoD) colocou a Anthropic, criadora do modelo de linguagem Claude, contra a parede. Em reunião descrita como tensa, o secretário de Defesa Pete Hegseth teria dado à empresa até sexta-feira, 27 de fevereiro, para aceitar que suas soluções de inteligência artificial possam ser usadas em qualquer operação militar considerada legal pelo governo — mesmo que isso ultrapasse as restrições éticas impostas pela própria Anthropic. Caso contrário, a companhia corre o risco de ser rotulada como “ameaça à cadeia de suprimentos”, ficando fora de programas e contratos do Pentágono.
O que está em jogo
• Pressão inédita: Hegseth citou, segundo o site Axios, a possibilidade de acionar a Lei de Produção de Defesa (Defense Production Act), mecanismo da Guerra Fria que obriga empresas privadas a priorizarem demandas militares.
• Impact Level 6: Claude é um dos raros modelos de IA certificados para redes classificadas dos EUA. A única outra solução com o mesmo selo, até agora, é o Grok, da xAI.
• Integração profunda: Claude já roda em sistemas da Palantir, peça-chave em planejamento tático e cibersegurança do governo americano. Tirar o modelo do ar significaria interromper fluxos críticos de dados.
DoD × Anthropic: cronologia do conflito
Início de janeiro: Claude foi usado, ao lado de ferramentas da Palantir, em operação que levou à captura do ex-presidente venezuelano Nicolás Maduro. O episódio teria provocado debate interno na Anthropic sobre a aderência aos “guardrails” recém-atualizados da empresa.
Meados de fevereiro: Cresce o atrito após o CEO Dario Amodei reafirmar, em conversas privadas, que o modelo não deve participar de tarefas como vigilância em massa ou desenvolvimento de armas autônomas.
Semana corrente: Reunião com Hegseth culmina no ultimato: colaborar sem restrições adicionais ou enfrentar o banimento.
Por que isso importa para o futuro da IA — e para o seu bolso
Se o Pentágono obrigar a Anthropic a ceder, estabelece-se um precedente para que qualquer fornecedor de tecnologia, hardware ou software, seja intimado a flexibilizar diretrizes éticas em nome da segurança nacional. Isso pode acelerar adoção de IA generativa em sistemas de defesa e, por consequência, aquecer a demanda por GPUs, servidores e serviços em nuvem — setores onde players como NVIDIA, AMD e Amazon já disputam cada contrato.
Para quem monta PCs ou trabalha com data centers, a tensão sinaliza oportunidade (e possível escassez) em chips voltados a machine learning. Mais pedidos governamentais significam lotes inteiros de hardware de alta performance ficando fora do varejo, o que pode afetar preços de placas de vídeo topos de linha que também interessam a gamers e criadores de conteúdo.
Imagem: John E
Limites técnicos: o que Claude consegue fazer que o governo não quer abrir mão
• Análise multifonte em tempo real: cruza dados abertos, inteligência de sinais e relatórios sigilosos, entregando insights estratégicos.
• Geração de código seguro: a variante Claude Code Security promete revisar e corrigir vulnerabilidades, algo valioso em ciberdefesa.
• Planejamento logístico: algoritmos de otimização que, na prática, economizam horas de planejamento de missões complexas.
Possíveis desfechos
1. Concessão mútua: Anthropic mantém algumas linhas vermelhas (por exemplo, nada de armas autônomas), enquanto o DoD concorda em revisá-las caso a caso.
2. Uso compulsório: o governo invoca a Defense Production Act, arranhando a relação de longo prazo e dissuadindo futuros talentos a ingressar na empresa.
3. Divórcio improvável: banimento formal da Anthropic, forçando agências e fornecedores do setor de defesa a migrar para Grok ou modelos ainda não certificados, o que criaria um vácuo técnico e jurídico.
Reflexos no mercado de hardware e software
• Aceleração na corrida por certificações IL6: Google Gemini, OpenAI GPT-4 e futuros modelos serão pressionados a conquistar o selo militar.
• Escalada de demanda por clusters de IA: cada novo contrato gera compras de milhares de aceleradoras NVIDIA H100 ou AMD Instinct, inflacionando preços e lead-time.
• Ripple effect no varejo: consumidores podem sentir reflexos indiretos — como menos estoque de GPUs topo de linha ou aumento no custo de serviços em nuvem que hospedam seus aplicativos e jogos favoritos.
No curtíssimo prazo, a expectativa é de um “acordo de conveniência”: o Pentágono consegue acesso irrestrito às funções que considera cruciais, enquanto a Anthropic preserva, ao menos no papel, a imagem de guardiã da ética na IA. Mas a tensão expõe uma verdade incômoda para todo o ecossistema de tecnologia: quando segurança nacional entra em cena, a fronteira entre inovação e responsabilidade fica cada vez mais tênue.
Com informações de Computerworld