Justiça dos EUA mantém Anthropic em lista de risco do Pentágono
Um tribunal federal de apelações em Washington, D.C., nega, nesta quarta-feira (8), o pedido da Anthropic para suspender sua inclusão na lista de restrições do Pentágono. A decisão mantém a startup de inteligência artificial como risco à cadeia de suprimentos de defesa dos Estados Unidos e reforça o veto ao uso de seus modelos Claude em contratos federais. A disputa expõe o choque entre segurança nacional e limites éticos para o emprego de IA pelo governo.
Pentágono endurece controle sobre IA em plena corrida tecnológica
O tribunal rejeita o argumento da empresa de que a classificação como risco causa danos financeiros imediatos e irreparáveis, enquanto a ação principal ainda corre na Justiça. Para os três juízes do colegiado, a proteção da cadeia de suprimentos de defesa e das redes militares pesa mais, neste momento, do que a alegada perda de contratos e desgaste de imagem da companhia.
A decisão confirma uma designação incomum. A Anthropic torna-se a primeira empresa americana a ser tratada pelo Pentágono com o mesmo grau de desconfiança historicamente reservado a fornecedores vinculados a adversários estrangeiros. Na prática, qualquer contratado militar precisa agora certificar formalmente que não usa o Claude, sistema de IA generativa da empresa, em projetos ligados ao governo federal.
O Departamento de Defesa enquadra a startup em março, com base na legislação federal 41 U.S.C. § 4713, que trata de riscos à cadeia de suprimentos. O entendimento do Pentágono é que as restrições internas da Anthropic sobre o uso de seus modelos criam incerteza operacional em cenários de conflito e ameaçam a segurança nacional. A empresa nega. Sustenta que suas salvaguardas existem para evitar armas totalmente autônomas e vigilância em massa sobre cidadãos americanos.
O caso ganha peso político porque ocorre em meio à escalada da Operação Epic Fury, ofensiva aérea dos EUA contra o Irã apoiada por ferramentas de IA. Enquanto a Anthropic é afastada, outras big techs de inteligência artificial ocupam o espaço deixado pela rival, em especial a OpenAI, que aceita os termos exigidos pelo governo.
Da parceria de US$ 200 milhões ao rompimento público
A relação entre Anthropic e Pentágono começa de forma promissora. Em 11 de julho de 2024, a empresa firma parceria com a Palantir para integrar o Claude à plataforma de análise de dados AIP, voltada a órgãos de inteligência e defesa. Um ano depois, em 14 de julho de 2025, o Departamento de Defesa assina contrato de prototipagem de US$ 200 milhões, cerca de R$ 1 bilhão, para desenvolver capacidades de IA de fronteira.
O clima muda em janeiro de 2026. O secretário de Defesa, Pete Hegseth, publica um memorando determinando que todos os contratos de IA passem a incluir, em até 180 dias, uma cláusula de “qualquer uso lícito”. Na prática, o governo exige acesso irrestrito aos modelos, contanto que o emprego seja formalmente legal. A diretriz entra em choque direto com a política da Anthropic, que veta armas totalmente autônomas e vigilância doméstica em larga escala.
As divergências se cristalizam em 24 de fevereiro. Hegseth se reúne com o CEO da Anthropic, Dario Amodei, e exige um compromisso escrito abrindo mão das travas de segurança do Claude em ambientes militares. Três dias depois, em 27 de fevereiro, termina o prazo dado pelo Pentágono. A empresa recusa o pedido. Em resposta, o presidente Donald Trump ordena, pela Truth Social, a interrupção imediata do uso dos produtos da Anthropic por órgãos federais, com retirada completa em até seis meses.
No mesmo dia, Hegseth declara a Anthropic um “risco à cadeia de suprimentos” e veta seu uso por qualquer contratante militar. A OpenAI se move rápido. Em 28 de fevereiro, Sam Altman anuncia um novo acordo para implantar os modelos da companhia na rede classificada do Departamento de Defesa, aceitando a cláusula de “uso lícito”. O vácuo deixado pela rival se converte em oportunidade bilionária para a concorrente.
A reação da Anthropic vem nos tribunais. Em 24 de março, empresa e governo se enfrentam pela primeira vez em uma audiência em um tribunal federal da Califórnia. A juíza distrital Rita Lin vê abuso de poder na ofensiva do Pentágono. Em 26 de março, ela barra a decisão que enquadra a companhia como ameaça, afirmando que “nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser vista como adversária por simplesmente discordar do governo”. A magistrada alerta ainda que a medida poderia “paralisar a Anthropic”.
O governo recorre duas vezes. Em 2 de abril, apela contra a liminar de Rita Lin para tentar restabelecer a proibição em todo o país. Em paralelo, aciona o tribunal de apelações em Washington para preservar a classificação de risco à cadeia de suprimentos, que depende de outro fundamento legal. A sessão de 8 de abril, na capital americana, trata dessa segunda frente e termina com vitória parcial do Pentágono.
Impacto em contratos, concorrência e debate ético da IA
A manutenção da Anthropic na lista de restrições limita o espaço da empresa no setor de defesa, hoje um dos principais motores de investimento em IA nos EUA. Contratos como o de US$ 200 milhões do Pentágono viram exceção em um cenário em que agências federais procuram fornecedores dispostos a flexibilizar travas de uso. Na prática, a medida congela a presença do Claude em redes militares e órgãos de segurança, enquanto rivais avançam.
Concorrentes como OpenAI e xAI cosem benefícios diretos. Ambas já recebem contratos de valores semelhantes junto ao Departamento de Defesa e, ao contrário da Anthropic, aceitam a cláusula de “qualquer uso lícito”. O resultado é um redesenho rápido do mercado de IA para o governo, com menos diversidade de modelos e maior peso de empresas dispostas a alinhar suas políticas internas às prioridades militares.
Para a Anthropic, o risco vai além da perda imediata de receita. A classificação como ameaça à cadeia de suprimentos funciona como alerta vermelho para parceiros privados que dependem de contratos federais. Bancos, empresas aeroespaciais e gigantes de tecnologia, diante da incerteza regulatória, podem evitar integrar o Claude em sistemas críticos. A startup tenta convencer o Judiciário de que esse efeito em cascata coloca em xeque sua sobrevivência financeira.
Especialistas em segurança digital e direitos civis veem no caso um teste para os limites éticos da IA estatal. De um lado, o Pentágono defende liberdade total de emprego da tecnologia em nome da segurança nacional. De outro, uma empresa que tenta impor salvaguardas próprias para reduzir o risco de abusos, como sistemas que decidem alvos sozinhos ou monitoram populações inteiras. “O conflito central é sobre quem define as regras do jogo: o governo ou os desenvolvedores”, resume um pesquisador ouvido por veículos americanos.
Disputa jurídica continua e pressiona debate regulatório
A decisão desta quarta-feira não encerra a batalha judicial. A ação principal segue em duas frentes distintas, na Califórnia e em Washington, e pode chegar à Suprema Corte. A Anthropic ainda tenta reverter, de forma definitiva, tanto a ordem que a classifica como risco à cadeia de suprimentos quanto a diretriz mais ampla que dá ao governo poder para punir empresas que se recusam a liberar uso irrestrito de seus modelos.
O caso tende a influenciar a regulação de IA além dos Estados Unidos. Governos que veem na tecnologia uma vantagem estratégica observam como Washington equilibra segurança, inovação e direitos civis. Startups do setor seguem o processo com atenção redobrada. A pergunta que permanece em aberto é se será possível, nos próximos anos, construir modelos de inteligência artificial avançados que sirvam ao Estado sem abandonar limites éticos definidos por quem os cria.
