Anthropic se posiciona firme e impede uso militar do Claude pelos EUA

Ouvir esta notícia

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA

Secretário de Defesa deu ultimato à empresa para liberar Claude para uso militar irrestrito

O embate entre o governo dos Estados Unidos e a startup de IA Anthropic ganhou contorno nos últimos dias. Por um lado, o Pentágono pressiona para que o modelo Claude fique disponível para aplicações militares sem restrições. Por outro, a empresa reforça limites claros, especialmente quando falamos de armas autônomas e de vigilância em massa. No centro da discussão está a ideia de que a IA pode potencializar operações estratégicas — mas não a qualquer custo que comprometa princípios éticos, legais ou democráticos.

Ainda que o tom seja firme, o discurso da Anthropic é delicado. Em declarações recentes, o CEO Dario Amodei deixou claro que a empresa “não pode, em sã consciência”, permitir que seus modelos sejam empregados “em todos os casos de uso lícito, sem limitação”. Em outras palavras: certas linhas vermelhas permanecem intransponíveis. Ele acrescentou que essa posição não impede o diálogo, mas frisa que “a prerrogativa do Departamento de Defesa é escolher contratantes mais alinhados com sua visão” — ao mesmo tempo em que reconhece o valor estratégico da tecnologia para as forças armadas. “Nossa grande preferência é continuar a servir o Departamento e nossos soldados — com as salvaguardas já implementadas”, reforçou o executivo.

A tensão ganhou contornos mais práticos na sexta-feira, quando o Pentágono fixou um prazo para a Anthropic: até as 15h01 (horário local) do dia 27, a empresa deveria aceitar os termos propostos para uso da IA em operações militares. Caso contrário, a situação pode escalar para medidas de alto impacto, que vão desde a classificação da empresa como “risco da cadeia de suprimentos” até a aplicação da Lei de Produção de Defesa (DPA, na sigla em inglês), instrumentos da era pós-Guerra Fria que conferem aos EUA poderes emergenciais para intervir na economia em nome da segurança nacional. Em defesa de sua posição, o porta-voz do Pentágono, Sean Parnell, afirmou que o uso em armamentos autônomos ou em vigilância maciça de cidadãos é ilegal, mas que o contrato deve permitir “todos os fins lícitos” — um wording que, na prática, sustenta uma faixa ampla de aplicações permitidas pela Defesa.

No dia a dia, o que está em jogo não é apenas uma discussão teórica sobre tecnologia. Segundo relatos de veículos como o The Wall Street Journal e a Associated Press, militares já teriam utilizado o Claude em operações envolvendo a Venezuela, o que elevou a curiosidade sobre como esses sistemas aparecem em missões reais. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente esse desdobramento, e ainda não está claro de que forma o Claude foi empregado na operação que resultou na prisão do presidente venezuelano Nicolás Maduro. Em ensaio recente, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância, destacando que uma ferramenta capaz de analisar bilhões de conversas poderia medir o sentimento público e detectar focos de deslealdade antes que se tornem problemas maiores.

Para além dos debates morais, a pressão política recente também envolve possíveis sanções. Se a Anthropic for classificada como “risco da cadeia de suprimentos”, poderá enfrentar grandes restrições de importação, banimentos em licitações e exclusão de setores estratégicos. Já pela DPA, o governo poderia obrigar a disponibilizar tecnologia ao Pentágono, sob pena de multas e sanções. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos — um equilíbrio que o governo busca manter para não prejudicar a capacidade da defesa nacional. “Se não colaborarem, o Hegseth garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a atender ao Pentágono independentemente da vontade da empresa”, comentou um alto funcionário do DoD ao Financial Times.

O movimento já começa a apresentar sinais de tensão setorial. Segundo reportagens, a Defesa iniciou conversas com grandes contratadas, como Boeing e Lockheed Martin, para avaliar a exposição de seus produtos diante de uma eventual ruptura com a Anthropic. Enquanto isso, analistas apontam que rivais da startup — como Meta, Google e xAI — teriam aceitado permitir o uso de seus modelos para todas as aplicações legais do Departamento, o que ampliaria o espaço de manobra para o governo e reduziria o poder de barganha da Anthropic.

Nos bastidores, o debate não é apenas sobre contratos, mas sobre a ética e o ritmo da intervenção governamental. Geoffrey Gertz, do Center for a New American Security, expressou preocupação de que ações para restringir o mercado da Anthropic possam prejudicar a capacidade da empresa de manter a vanguarda da IA responsável. Já Amos Toh, do Brennan Center, destacou a necessidade de supervisionar esse processo à luz de uma evolução tecnológica veloz, lembrando que a lei não acompanha o passo rápido da IA. Em síntese, o episódio não revela apenas limites técnicos, mas também uma escala de escolhas políticas que pode repercutir na forma como tecnologia de ponta é integrada à defesa nacional.

Enquanto o prazo se aproxima, a Anthropic mantém a linha de defesa de que as salvaguardas são essenciais para o uso responsável de sua tecnologia. No fim das contas, o que está em jogo é a discussão sobre até onde o poder público pode, ou deve, intervir na direção de inovações estratégicas, sem comprometer princípios democráticos, segurança e privacidade. E você, leitor, o que mudaria na prática se as regras mudassem? A resposta, por ora, fica no terreno das incertezas — mas o pulso entre governo e IA segue firme, com impacto direto nos próximos passos de quem depende da tecnologia para operar com eficiência e responsabilidade.

O que achou deste post?

Jornalista

Renata Oliveira

AO VIVO Sintonizando...