Anthropic pode perder contrato de US$ 200 milhões com o Pentágono
Anthropic é questionada pelo Pentágono após uso de IA em operação contra Nicolás Maduro e pode rever contrato de US$ 200 milhões
A Anthropic está envolvida em negociações com o Pentágono para manter sua atuação junto ao Departamento de Defesa dos Estados Unidos, após divergências que vieram à tona na esteira da operação que resultou na captura de Nicolás Maduro em 3 de janeiro. O impasse ameaça um acordo de US$ 200 milhões já assinado entre as partes, colocando em risco um contrato que já era visto como estratégico para a aplicação de IA no setor público.
Segundo pessoas próximas às conversas, citadas pelo Washington Post, autoridades do governo passaram a duvidar da confiabilidade da Anthropic após executivos ampliarem preocupações sobre a forma de uso da tecnologia no episódio envolvendo Maduro. O modelo Claude, desenvolvido pela empresa, figura entre as ferramentas de IA usadas pelo Pentágono para ampliar capacidades em áreas como cibersegurança, aperfeiçoar sistemas de armas autônomas e otimizar processos internos.
Uso militar de IA gera atrito. A equipe responsável pela Defesa tem defendido que as Forças Armadas tenham liberdade para empregar ferramentas de IA “para todos os propósitos legais” em redes não classificadas. De acordo com uma fonte da Defesa, companhias como OpenAI, Google e a xAI, de Elon Musk, teriam concordado com essa condição e estariam negociando acordos semelhantes para ambientes classificados. A Anthropic, por sua vez, sustenta que seu compromisso é com a segurança nacional dos EUA, mas reforça que o uso de suas tecnologias deve seguir a própria política de uso. Em nota, a empresa informou que mantém conversas produtivas, de boa-fé com o Departamento de Defesa para tratar das questões envolvidas.
A tensão ganhou força após vir à tona que tecnologias da Palantir, associadas ao modelo Claude, foram utilizadas na preparação da operação contra Maduro. Na ação, dezenas de membros da segurança venezuelana e militares do país perderam a vida. Em meio ao episódio, um executivo da Anthropic teria questionado a Palantir sobre o emprego da ferramenta, o que foi interpretado por autoridades como possível desaprovação. A Anthropic nega ter discutido operações específicas com o DoD ou ter manifestado preocupação a parceiros do setor fora de conversas técnicas rotineiras.
Principais pontos em jogo, segundo pesquisadores e atores do setor:
- Risco contratual: o Pentágono pode classificar a Anthropic como uma ameaça à cadeia de suprimentos, uma designação que costuma mirar empresas consideradas sensíveis ao abastecimento de tecnologia. Em caso de aprovação, fornecedores teriam de certificar que não utilizam modelos da companhia.
O contexto atual se insere em uma escalada de uso de IA no âmbito militar. Em janeiro de 2026, uma diretriz de Pete Hegseth — integrante da equipe de Defesa — ressaltou que “a velocidade vence” em um cenário movido por IA e orientou a liberação de dados para o treinamento de sistemas. Pouco depois, Dario Amodei, cofundador e CEO da Anthropic, publicou um ensaio alertando para riscos de armas autônomas e de vigilância em massa baseadas em IA, destacando a possibilidade de governos democráticos utilizarem tecnologias poderosas com pouca prestação de contas.
A trajetória de uso militar de IA já vinha se acelerando há alguns anos. Em 2024, na Edwards Air Force Base, a Força Aérea testou um caça F-16 equipado com IA em combates simulados, mantendo um piloto humano capaz de desligar o sistema caso necessário. E desde 2023, políticas governamentais passaram a exigir revisões e salvaguardas para garantir que decisões sobre uso de força permaneçam sob controle humano.
No fim das contas, o desfecho das negociações com o Pentágono pode redefinir o papel da Anthropic no ecossistema de IA governamental. Para o leitor, fica a dúvida: até onde vão os limites do uso de IA em operações de defesa e como isso afeta contratos bilionários que dependem da confiança entre empresas de tecnologia e o governo?