9 de abril, o Tribunal de Apelações Federal do Distrito de Columbia, nos EUA, decidiu manter a marcação do Ministério da Defesa para a Anthropic como “risco para a cadeia de abastecimento”, recusando o seu pedido de suspensão. Esta batalha jurídica, que continua sem desfecho definitivo, em torno das linhas vermelhas éticas da IA e das definições de segurança nacional.
(Antecedentes: o juiz apoiou a Anthropic, proibindo o Ministério da Defesa de sancionar a Claude com uma “etiqueta de risco para a cadeia de abastecimento”)
(Informação de contexto: O que é a Claude? Análise completa — custos, funcionalidades, Claude Code, Cowork — guia mais detalhado da Anthropic para 2026)
Índice do artigo
Toggle
9 de abril, o Tribunal de Apelações Federal do Distrito de Columbia, nos EUA, rejeitou o pedido de suspensão da execução apresentado pelo gigante da IA Anthropic, decidindo manter a determinação do Ministério da Defesa de a classificar como “risco para a cadeia de abastecimento”.
Os fundamentos do tribunal foram diretos: os interesses de segurança nacional do governo na gestão da cadeia de abastecimento de IA prevalecem sobre as perdas financeiras suportadas pela Anthropic. Esta marcação é normalmente utilizada para empresas de países adversários ou entidades que representam ameaças potenciais; agora recai sobre um unicórnio de IA sediado nos EUA, com um significado simbólico evidente.
O caso tem origem em julho de 2025. A Anthropic e o Pentágono assinaram um contrato de 200 milhões de dólares, para integrar os modelos de IA da sua Claude no sistema Maven inteligente, ajudando a executar tarefas de análise de informações e identificação de objetivos.
Contudo, as negociações entre as partes falharam em setembro de 2025. A Anthropic insistiu em estabelecer duas linhas vermelhas éticas: recusar utilizar a Claude em sistemas de armas totalmente automatizados e recusar utilizá-la em vigilância no território nacional. Estas duas posições entram em conflito fundamental com as expectativas do governo Trump, que, entretanto, ordenou por meio das redes sociais às agências federais que deixassem de utilizar produtos da Anthropic e estabeleceu um período de transição de 6 meses.
Entre o final de 2025 e o início de 2026, o Ministério da Defesa colocou oficialmente a Anthropic na lista de riscos da cadeia de abastecimento. Esta marcação cortou diretamente a elegibilidade da Anthropic para participar em contratos de defesa do governo.
Neste momento, esta batalha legal tem resultados contraditórios. Um tribunal federal em São Francisco, no fim de março, tinha aprovado uma injunção preliminar que permitia à Anthropic continuar a colaborar com entidades governamentais não ligadas à defesa; porém, a decisão de 9 de abril do Tribunal de Apelações Federal do Distrito de Columbia reforçou a postura de bloqueio do Ministério da Defesa, recusando qualquer espaço para uma suspensão.
Isto significa que a Anthropic se encontra numa espécie de “brecha legal” embaraçosa: pode colaborar com algumas entidades governamentais, mas é excluída dos contratos de defesa. A Anthropic afirma que este caso constitui retaliação política e viola garantias constitucionais, e diz que continuará a apresentar recursos. A aceleração do processo judicial será a chave para a próxima fase.
No entanto, segundo a revista Electronic Engineering Album, embora a Anthropic tenha sofrido um grande impacto comercial, não conseguindo participar em contratos de defesa de grande escala, a sua insistência na posição ética obteve, em contrapartida, uma resposta positiva no mercado de utilizadores em geral, atraindo mais empresas e utilizadores individuais preocupados com a segurança da IA.
O impacto desta decisão não se limita a uma única empresa, a Anthropic. Ela revela uma contradição estrutural mais profunda: quando os enquadramentos éticos dos criadores de IA entram em conflito com a definição de segurança nacional por parte do governo, o equilíbrio do sistema jurídico atual tende, neste momento, para onde? Já existe uma resposta preliminar. A decisão final deste caso terá um significado de referência profundo para como toda a indústria tecnológica irá negociar, com o governo, os limites do uso de IA.