OpenAI não controla o uso de IA pelo Pentágono, admite Sam Altman
Dono da OpenAI informa que a IA não será utilizada para propósitos ilegais, mas CEO da Anthropic o chama de mentiroso
Na última terça-feira (03), o empresário Sam Altman comunicou aos colaboradores que não detém o controle sobre a forma como o Pentágono utiliza as ferramentas de IA desenvolvidas pela OpenAI. Segundo apuração de Bloomberg e CNBC, a fala reacendeu o debate sobre até onde a empresa pode ou deve ir quando há interesse militar envolvido com a tecnologia.
Para situar o cenário, vale lembrar que o Pentágono é a sede do Departamento de Defesa dos EUA, responsável por reunir gestão, inteligência e operações militares para traçar estratégias nacionais e internacionais. No radar público, o uso de IA por órgãos de defesa tem acirrado discussões sobre ética, controle e responsabilidade das empresas de software nesse terreno sensível.
Já em fevereiro, o The Wall Street Journal informou que a sede militar teria utilizado a IA Claude, da empresa Anthropic, para auxiliar na captura do ditador Nicolás Maduro. A Anthropic discordou da abordagem e houve um atrito que culminou em pedidos de interrupção do uso do serviço pelo Pentágono. A situação colocou as duas frentes em atrito público e político, com impactos diretos sobre quem fornecia IA para propósitos militares.
Com a ruptura entre EUA e a Anthropic, a OpenAI emergiu como alternativa para ceder tecnologia de IA com aplicação militar. Quem tem pressa de entender o que acontece, aponta os relatos de Bloomberg e CNBC: Altman disse aos funcionários que a OpenAI não controla a forma como seus sistemas são empregados no âmbito militar; a declaração gerou desconforto entre equipes e entusiastas da IA, abrindo espaço para a dúvida pública sobre eventual transgressão ética por parte da empresa.
No debate sobre os limites éticos da IA no contexto militar, o The Guardian reforça que as declarações da OpenAI chegam em momento de tensão entre opinião pública, desenvolvedores e governo, com a própria comunidade tecnológica questionando o que é aceitável na prática. Entre as falas de Altman, cita-se o argumento: “Você não pode tomar decisões operacionais”, sugerindo que as decisões estratégicas não deveriam sair do escopo da empresa apenas pela conveniência de uso público, ao menos é o que se entende a partir da cobertura de Bloomberg e CNBC.
Já a Anthropic permaneceu firme em suas restrições: antes de a OpenAI entrar no jogo, a empresa foi afastada pela administração americana porque não concordava com o modo como o que eles produziam poderia facilitar ações violentas, e ainda impôs limitações digitais que impediam o uso total de Claude pelo Pentágono — resistência que, segundo a política de uso da companhia, não poderia ser removida sem compromissos claros com limites de aplicação.
A visão de que as negociações entre governo e indústria se intensificaram é reforçada pela imprensa: o período recente ficou marcado por conversas tensas entre o governo dos EUA e o segmento de IA, com o Pentágono exigindo que quaisquer restrições digitais fossem desativadas para facilitar o acesso a ferramentas avançadas.
Após o acordo entre a OpenAI e o governo para disponibilizar seu software de IA ao Pentágono, houve uma reação adversa de parte dos usuários, inclusive com uma onda de desinstalações do ChatGPT em massa nos EUA. A preocupação é real: será que a empresa está disposta a cruzar fronteiras éticas para atender a demandas militares?
Enquanto o debate se desenrola, o público e parte da equipe interna discutem o que isso pode significar para o dia a dia de quem utiliza IA. A narrativa de que os serviços de IA oferecidos à assistência militar não seriam usados para fins ilegais tem aparecido nas declarações de Altman e da própria OpenAI, mas o CEO reconheceu que o acordo foi feito às pressas, o que alimenta a percepção de oportunismo e descuido estratégico.
Por fim, o memorando interno da Anthropic, assinado pelo CEO Dario Amodei, reforça a crítica à conduta de Altman, chamando-o de “mentiroso” em meio a acusações de tentativa de manipulação do cenário. A mensagem, publicada pelo veículo The Information, ressalta que a Anthropic manteve seus limites e não pretendia “conspirar” com o setor público para projetar um suposto teatro de segurança.