Pentágono ameaça cortar Anthropic na disputa por salvaguardas de IA

Ouvir esta notícia
FILE PHOTO: Anthropic logo is seen in this illustration taken March 31, 2023. REUTERS/Dado Ruvic/Illustration/File Photo

Pentágono ameaça cortar Anthropic em disputa sobre salvaguardas de IA, diz site

O modelo de IA Claude da Anthropic foi usado na operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro

O cenário da IA de defesa volta a ganhar contornos públicos: o Pentágono estaria avaliando encerrar o relacionamento com a Anthropic, após divergências sobre como aplicar as ferramentas de IA no contexto militar. Em linhas gerais, autoridades sinalizam que o órgão pretende flexibilizar regras para que as Forças Armadas possam usar as máquinas de aprendizado de forma ampla, incluindo no desenvolvimento de armamentos, na coleta de inteligência e em operações no campo de batalha. Por outro lado, a Anthropic sustenta restrições e não vê com bons olhos esse tipo de concessão.

Ainda segundo relatos do governo, o Pentágono vem pressionando quatro grandes nomes da IA para que liberem o uso de suas ferramentas “para todos os fins legais” pela defesa dos EUA, mantendo limites que muitos especialistas consideram críticos. Entre as empresas envolvidas, aparecem OpenAI, Google e xAI, além da própria Anthropic. As negociações já se estendem por meses, e o clima entre as partes tem mostrado sinais de cansaço ao longo do tempo.

Em termos de posição, a Anthropic sustenta que não discutiu com o governo a aplicação de seu modelo Claude para operações específicas, e que as conversas até aqui se concentraram em questões de política de uso. Entre os pontos discutidos, estariam limites rígidos sobre armas totalmente autônomas e vigilância doméstica em massa, sem qualquer relação com operações atuais. O Pentágono, por sua vez, não comentou o assunto publicamente.

Entre os aspectos em jogo, fica claro que a discussão envolve a prática de uso de IA em redes sensíveis, com ênfase em como equilibrar a inovação tecnológica com salvaguardas éticas e legais. Claude — a peça central da Anthropic — já figura em debates que vão além da pesquisa: no dia a dia, o tema promete acompanhar a evolução de contratos, parcerias e regras de uso entre o setor público e as big techs.

Nos desdobramentos envolvendo a aplicação de Claude, o modelo da Anthropic chegou a figurar em uma operação militar dos EUA para capturar o ex-presidente venezuelano Nicolás Maduro, em que Claude foi utilizado por meio da parceria da Anthropic com a Palantir. Esse contexto mostra, na prática, como decisões de política de uso podem, de fato, impactar operações de alto sigilo e estratégicas. A narrativa reforça ainda a importância de entender até onde vai a linha entre inovação tecnológica e responsabilidade institucional.

Além disso, o cenário é acompanhando por várias publicações, que destacam o papel de grandes empresas em disponibilizar ferramentas de IA para redes confidenciais sem algumas das restrições habituais. Na prática, isso aponta para um debate contínuo sobre governança, segurança e confiabilidade no uso de IA avançada em ambientes de defesa e segurança nacional.

O que achou deste post?

Jornalista

Renata Oliveira

AO VIVO Sintonizando...