Juiz diz que proibição antrópica do governo parece punição

Páginas do site da Anthropic e o logotipo da empresa são exibidos na tela de um computador em Nova York na quinta-feira, 26 de fevereiro de 2026.

Um juiz federal em São Francisco disse na terça-feira que a proibição governamental do Antrópico parecia uma punição depois que a empresa de IA tornou pública sua disputa com o Pentágono sobre o uso potencial de seu modelo de inteligência artificial, Claude, pelos militares.

A juíza distrital dos EUA, Rita F. Lin, fez a observação no início de uma audiência sobre o pedido da Anthropic de uma liminar em um de seus processos contra o Pentágono, que designado a empresa é um risco na cadeia de suprimentos, colocando-a efetivamente na lista negra.

“Parece uma tentativa de paralisar a Anthropic”, disse Lin, acrescentando que estava preocupada com a possibilidade de o governo estar punindo a Anthropic por criticar abertamente a posição do governo.

Lin disse que espera tomar uma decisão nos próximos dias sobre a possibilidade de suspender temporariamente a proibição do governo até que o tribunal decida sobre o mérito do caso.

A audiência no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia é o mais recente desenvolvimento de uma disputa entre uma das principais empresas de IA e a administração Trump, e tem implicações na forma como o governo pode utilizar a IA de forma mais ampla.

O CEO da Anthropic, Dario Amodei, anunciou no final de fevereiro que não permitiria que o modelo de IA de Claude da empresa fosse usado para armas autônomas ou para vigiar cidadãos americanos. O presidente Trump posteriormente encomendado todas as agências governamentais dos EUA a parar de usar os produtos da Antrópico.

O Pentágono designado Antrópico como um “risco da cadeia de abastecimento” no início deste mês, citando preocupações de segurança nacional. Essa designação é normalmente reservada a entidades consideradas adversários estrangeiros que possam potencialmente sabotar os interesses dos EUA.

Antrópico tem arquivado dois ações judiciais federais alegando que esta designação equivale a retaliação ilegal contra a empresa por sua postura sobre segurança de IA. Argumenta que o rótulo lhe custará clientes e receitas, uma vez que também impedirá os empreiteiros do Pentágono de fazer negócios com a empresa.

As ações judiciais, apresentadas no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia e no tribunal federal de apelações em Washington, DC, alegam que a administração Trump violou o direito de expressão da Primeira Emenda da empresa e excedeu o âmbito da lei de risco da cadeia de abastecimento.

Na audiência de hoje, os advogados da Anthropic disseram que aparentemente foi a primeira vez que tal designação foi feita contra uma empresa norte-americana.

Lin disse que o Pentágono tem o direito de decidir quais produtos de IA deseja usar. Mas ela questionou se o governo violou a lei quando proibiu as suas agências de usarem o Antrópico, e quando o secretário da Defesa, Pete Hegseth, anunciou que qualquer pessoa que procurasse negócios com o Pentágono deveria cortar relações com o Antrópico.

Ela disse que as ações eram “preocupantes” porque não pareciam estar adaptadas às preocupações de segurança nacional em questão, que poderiam ser resolvidas pelo Pentágono simplesmente deixando de usar Claude. Em vez disso, disse ela, parecia que o governo estava tentando punir a Antrópica.

Mas um advogado do governo argumentou que as suas ações não eram retaliatórias e se baseavam no desacordo da Anthropic com o governo sobre como o seu modelo de IA poderia ser usado – e não na decisão da empresa de se manifestar sobre o assunto.

O governo também argumentou que a Anthropic é um risco porque, teoricamente, no futuro a empresa poderia atualizar Claude de uma forma que colocasse em risco a segurança nacional.

A Anthropic não respondeu imediatamente a um pedido de comentário enviado por e-mail.

Um porta-voz do Pentágono disse que a política da agência é não comentar sobre litígios em andamento.