Juiz bloqueia temporariamente proibição antrópica do governo Trump

A Anthropic é uma empresa americana de inteligência artificial (IA) fundada em 2021.

Um juiz federal em São Francisco ordenou na quinta-feira uma liminar contra o Pentágono que suspende temporariamente a sua decisão potencialmente paralisante de rotular a Anthropic como um “risco da cadeia de abastecimento”. A empresa de tecnologia e o Pentágono estão no meio de uma disputa sobre como os militares poderão usar o modelo de inteligência artificial da empresa, Claude.

A juíza Rita F. Lin, do Tribunal Distrital do Distrito Norte da Califórnia, também suspendeu temporariamente uma diretriz do presidente Trump ordenando que todas as agências federais parassem de usar a tecnologia da Anthropic.

Estas ações suspendem a proibição do governo até que o tribunal possa decidir sobre o mérito do caso subjacente.

No despacho, Lin escreveu que a designação de risco da cadeia de abastecimento é normalmente reservada a agências de inteligência estrangeiras e terroristas, e não a empresas americanas. “Estas medidas amplas não parecem ser dirigidas aos interesses declarados de segurança nacional do governo”, escreveu Lin. “Se a preocupação for a integridade da cadeia de comando operacional, o Departamento de Guerra poderia simplesmente parar de usar Claude.”

“Em vez disso”, continuou ela, “essas medidas parecem destinadas a punir a Antrópica”.

A liminar decorre de uma briga contratual entre a Anthropic e o Pentágono que se tornou pública em fevereiro e se intensificou nas semanas seguintes.

O CEO da Antrópico, Dario Amodei, disse que não permitiria que Claude fosse usado para armas autônomas ou para vigiar cidadãos americanos. O Pentágono diz que cabe aos militares decidir como utilizar as ferramentas que compram aos empreiteiros, e não às empresas.

O presidente Trump aumentou a aposta ao ordenar que todas as agências federais parassem de usar Claude.

O Pentágono designado Antrópico como um “risco da cadeia de abastecimento” no início deste mês, citando a segurança nacional. Num comunicado da época, afirmou que os militares “não permitirão que um fornecedor se insira na cadeia de comando, restringindo o uso legal de uma capacidade crítica e colocando os nossos combatentes em risco”.

A Anthropic abriu dois processos na Justiça Federal alegando que esta designação equivale a uma retaliação ilegal por sua postura na segurança da IA, e que o rótulo lhe custará clientes e receitas, uma vez que também impedirá os empreiteiros do Pentágono de fazer negócios com a empresa. Os processos também alegam que a administração Trump violou o direito de expressão da Primeira Emenda da empresa.

Uma ampla gama de organizações, incluindo Microsofto ACLU e líderes militares aposentadosarquivaram amigo briefings com o tribunal em apoio à Antrópico.

Numa audiência na terça-feira, Lin pareceu inclinar-se fortemente para a concessão da liminar, dizendo que a sua impressão inicial foi que a proibição do Antrópico parecia uma punição por discordar abertamente da posição do governo.

No tribunal, os advogados do Pentágono argumentaram que as ações da Anthropic a tornaram indigna de confiança e que a designação de risco da cadeia de abastecimento resultou da decisão da empresa de tentar restringir o uso dos seus modelos de IA pelos militares, em vez de se opor abertamente à posição do Pentágono sobre o assunto.

Eles também argumentaram que, teoricamente, a empresa poderia atualizar Claude de uma forma que colocasse em risco a segurança nacional.

Em seu pedido, Lin chamou a designação de risco da cadeia de suprimentos de “provavelmente contrária à lei e arbitrária e caprichosa”.

Nada no estatuto para a aplicação da designação de risco da cadeia de abastecimento apoia “a noção orwelliana de que uma empresa americana pode ser considerada um potencial adversário e sabotador dos EUA por expor um desacordo com o governo”, escreveu ela.

Ela também escreveu que o Pentágono já havia elogiado a Antrópico como parceira e submetido-a a rigorosa verificação de segurança nacional. Mas foi só quando a empresa levantou publicamente preocupações sobre como a sua tecnologia poderia ser usada, escreveu ela, que o Pentágono “anunciou um plano para paralisar a Anthropic: colocá-la na lista negra de fazer negócios com qualquer empresa que preste serviços às forças armadas dos EUA, cortar permanentemente a sua capacidade de trabalhar com o governo federal e rotulá-la como um adversário que poderia sabotar (o Departamento de Guerra) e que representava um risco na cadeia de abastecimento”.

“Esta parece ser uma retaliação clássica da Primeira Emenda”, continuou ela.

A Antrópica saudou a decisão do juiz. “Estamos gratos ao tribunal por agir rapidamente e satisfeitos por concordarem que a Anthropic provavelmente terá sucesso no mérito. Embora este caso tenha sido necessário para proteger a Anthropic, nossos clientes e nossos parceiros, nosso foco continua em trabalhar produtivamente com o governo para garantir que todos os americanos se beneficiem de IA segura e confiável”, escreveu um porta-voz em um e-mail para a NPR.

O Pentágono não respondeu imediatamente a um pedido de comentário, mas já disse à NPR que a política da agência é não comentar sobre litígios em curso.

Jennifer Huddleston, pesquisadora sênior em política tecnológica do Cato Institute, um think tank libertário, disse que a liminar parece que o juiz acredita que a Anthropic provavelmente terá sucesso no mérito.

Huddleston disse que a decisão é significativa e tem implicações mais amplas do que apenas este caso.

“Esta liminar está realmente mergulhando em algumas daquelas questões clássicas de garantir que não haja retaliação contra uma empresa ou um indivíduo por exercer seus direitos da Primeira Emenda, e também garantir que quando decisões tão significativas forem tomadas, coisas que poderiam ser potencialmente paralisantes para uma empresa, que o devido processo adequado seja seguido”, disse ela.