A startup de IA que tem desafiado o governo de Donald Trump
O governo Trump estuda barrar a Anthropic após startup proibir que sua IA, o Claude, seja usada em ataques e espionagem militar
No cenário da tecnologia aplicada aos interesses militares, Pentágono e Anthropic vivem uma tensão que foge do comum. A empresa se recusa a permitir que o Claude participe de operações de guerra que envolvam mortes ou espionagem de cidadãos, uma posição que deixou a máquina de guerra mais sensível aos olhos do governo. Por causa dessa postura, há quem classifique a Anthropic como um possível risco à cadeia de suprimentos, etiqueta pesada que costuma aparecer em situações com adversários externos e que pode frear contratos ou parcerias estratégicas com o Executivo.
A rusga começou por uma visão divergente sobre o papel da tecnologia no campo militar. O Ministério da Defesa entende que empresas de tecnologia não devem impor limites à atuação dos militares, mesmo quando tais limites são legais e operacionais. Um alto funcionário, Emil Michael, explicou ao Wall Street Journal que é essencial ter ferramentas que funcionem para qualquer objetivo permitido por lei. Nesse contexto, a Anthropic aparece como a única a manter restrições, o que a coloca em posição de obstáculo aos planos do governo. Vale lembrar que a startup tinha, no momento, um contrato de até US$ 200 milhões com as Forças Armadas, o que torna o cenário ainda mais delicado do ponto de vista financeiro e estratégico.
Os rumores apontam para uma possibilidade concreta: o Pentágono avalia exigir que seus prestadores de serviço comprovem que não utilizam o Claude em trabalhos oficiais. Se essa exigência (ou qualquer versão dela) se tornar mandatório, a Anthropic pode perder a vantagem de ter sido a primeira a conseguir autorização para lidar com arquivos secretos do governo. No dia a dia, é uma dinamicidade que mostra como a ética na IA pode interferir diretamente em contratos e operações de Estado.
Além da discussão técnico-operacional, o tema carrega um componente político relevante: envolve o governo de Donald Trump. Integrantes da atual gestão chegaram a classificar a IA da Anthropic como woke por causa das regras de segurança e de suas ligações com o governo de Joe Biden. Inclusive, um fundo ligado ao filho de Trump se recusou a investir na empresa por discordar de suas ideias — um detalhe que revela como o tabuleiro político pode mexer com a agenda tecnológica.
Especialistas discutem se tratar uma empresa norte-americana como um possível risco pode atrasar o ritmo de avanço da tecnologia no país. Por outro lado, a Anthropic afirma manter conversas de boa fé para resolver o impasse e buscar soluções que permitam exercitar a inovação sem abrir mão de princípios de segurança. No fim das contas, o que está em jogo não é apenas uma vantagem contratual, mas a forma como os EUA devem balancear defesa, ética e competitividade tecnológica no cenário global.
Mas o que isso muda na prática para quem lê o jornal, faz compras online e depende de inovações de IA no dia a dia? A resposta passa por entender que decisões assim podem impactar o ecossistema de tecnologia e os caminhos de investimento no curto e no longo prazo, ainda que pareçam distantes do cotidiano comum. Enquanto o debate segue, consumidores e leitores ficam atentos a como esse embate entre governo, regulações e startups pode redefinir o tom da tecnologia disponível no mercado.