Pentágono recorre ao Claude no Irã enquanto Trump restringe a Anthropic
Durante a Operação Epic Fury, o Comando Central utilizou o modelo Claude para identificar alvos e simular cenários poucos minutos após o presidente classificar a Anthropic como risco à segurança nacional
No último sábado, quando os Estados Unidos cresciam em meio à operação Epic Fury — uma ofensiva aérea de grande escala contra alvos no Irã — o universo tecnológico ficou no meio de uma contradição visível. Enquanto o Pentágono recorriu a ferramentas de inteligência artificial da Anthropic, o próprio governo anunciava medidas para frear o uso de programas da empresa. O episódio revela como a IA já ocupa um papel decisivo no campo militar, ao mesmo tempo em que as decisões políticas tentam frear ou redirecionar esse uso.
Na prática, a ofensiva combinou tecnologia de ponta com táticas tradicionais. Bombardeiros furtivos B-2 e mísseis Tomahawk compuseram o arsenal, mas o “cérebro” por trás de parte do planejamento foi o Claude, o modelo de linguagem da Anthropic, um concorrente direto do ChatGPT. Segundo relatos de veículos norte‑americanos, a ferramenta foi integrada ao aparato de avaliação de inteligência, identificação de alvos e simulação de cenários de batalha pelo Comando Central dos EUA (Centcom). A ironia da cronologia é clara: pouca horas antes, Trump havia assinado uma diretiva ordenando que agências federais cessassem o uso dos programas da Anthropic.
O que se sabe dos bastidores aponta para um típico cabo de guerra entre governo e tecnologia de ponta. Conforme divulgado pelo Axios, o embate teve como estopim a recusa do CEO da Anthropic, Dario Amodei, em atender a um ultimato do Pentágono para acesso irrestrito aos modelos, abrindo passagem para a remoção de barreiras de segurança. A empresa, que já mantém um contrato de US$ 200 milhões com o governo desde 2025, sustenta uma linha ética clara: vigilância em massa não passa e a autonomia bélica fica sujeita a supervisão humana. Em redes sociais, Trump criticou o posicionamento da startup, chamando a postura de egoísmo que, na prática, colocava tropas americanas em risco. Já a imprensa brasileira, por meio de reportagens, aponta que a IA da Anthropic esteve envolvida até em operações de alto perfil, como a captura do ex‑presidente venezuelano Nicolás Maduro, em fevereiro.
Mesmo com o atrito, as autoridades não pretendem fechar a porta para a tecnologia. De acordo com o WSJ, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk, para substituição de Claude. O desafio, segundo especialistas ouvidos pela imprensa, é a complexidade da integração entre sistemas diferentes, o que pode exigir um prazo de pelo menos seis meses para concluir a transição, especialmente quando envolve grandes provedores como a Amazon e a Palantir. Enquanto isso, a resistência do Vale do Silício vai ganhando corpo: grandes corporações norte‑americanas, de varejo a indústria, começam a adotar uma postura mais firme, dando prioridade aos valores de mercado e a diretrizes éticas em detrimento da conformidade imediata.
No campo de batalha iraniano, Epic Fury parece ter alcançado seus objetivos militares em termos táticos, mas o episódio expõe uma vulnerabilidade crítica: depender de uma inteligência que o próprio governo não consegue, ou não tem autorização, para controlar plenamente. A situação serve de alerta para leitores e curiosos sobre o dia a dia da tecnologia aplicada à defesa: mesmo com controles, a linha entre uso estratégico e dependência tecnológica permanece ambígua e cheia de consequências práticas para quem está no front.