Anthropic processa a administração Trump por rótulo de ‘risco da cadeia de suprimentos’

A Anthropic entrou com duas ações federais na segunda-feira contra a administração Trump, alegando que funcionários do Pentágono retaliaram ilegalmente contra a empresa por sua posição sobre segurança de inteligência artificial.

Funcionários do Departamento de Defesa designaram na semana passada a Antrópica como um risco na cadeia de abastecimento, citando preocupações de segurança nacional. Seguiu-se ao anúncio do CEO Dario Amodei de que não permitiria que o modelo de IA da empresa, Claude, fosse usado para armas autônomas ou para vigiar cidadãos americanos. O processo diz que a decisão do governo de colocar a empresa no que é efetivamente uma lista negra que impede os fornecedores do Pentágono de usarem Claude é uma tentativa de punir a empresa por causa de suas barreiras de IA.

“O governo federal retaliou um importante desenvolvedor de IA de fronteira por aderir ao seu ponto de vista protegido sobre um assunto de grande importância pública – a segurança da IA ​​e as limitações de seu próprio modelo de IA – em violação da Constituição e das leis dos Estados Unidos”, afirma o processo, acrescentando que os funcionários de Trump “estão tentando destruir o valor econômico criado por uma das empresas privadas de crescimento mais rápido do mundo”.

Um porta-voz do Pentágono não quis comentar.

As ações judiciais, movidas no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia e no tribunal federal de apelações em Washington, DC, alegam que a administração Trump violou os direitos da Primeira Emenda da empresa e excedeu o escopo da lei de risco da cadeia de suprimentos ao usar o rótulo contra a Antrópica. O processo pede a um juiz federal que impeça funcionários do Pentágono de fazer cumprir a designação de lista negra.

É a última reviravolta no que tem sido um impasse controverso que coloca o Pentágono contra a Antrópico sobre as regras de segurança da empresa que regem os seus poderosos serviços.

Os advogados da Anthropic afirmam no processo que o Claude não foi desenvolvido para ser utilizado em armas letais autónomas sem supervisão humana, nem para ser utilizado para espionar cidadãos dos EUA, e a utilização das ferramentas desta forma representa um abuso da sua tecnologia.

“Permitir que Claude seja usado para permitir que o Departamento vigie pessoas dos EUA em grande escala e coloque em campo sistemas de armas que podem matar sem supervisão humana seria, portanto, inconsistente com o propósito fundador e os compromissos públicos da Antrópico”, de acordo com o processo.

Funcionários do Pentágono contestaram que a luta com a Anthropic seja por causa de armas letais e vigilância em massa, alegando em vez disso que as empresas privadas não podem ditar como o governo usa a tecnologia em cenários como guerra e operações táticas, alegando que todos os seus usos seriam “legais”.

A designação de risco da cadeia de abastecimento surge na sequência de uma reunião em fevereiro entre o secretário da Defesa, Peter Hegseth, e Amodei. Especialistas em segurança nacional dizem que tal rótulo normalmente se aplica a contratantes adversários estrangeiros que poderiam potencialmente sabotar os interesses dos EUA. É altamente incomum, dizem os especialistas, usar a lista negra contra uma empresa americana.

Depois que funcionários do Pentágono informaram a Anthropic sobre a designação, o presidente Trump disse nas redes sociais que todas as agências federais parariam de usar as ferramentas da Anthropic.

O Anthropic foi o primeiro laboratório de fronteira de IA com permissão para uso pelas autoridades dos EUA em redes classificadas. Mas desde o início da rivalidade, autoridades do Pentágono disseram que o xAI de Elon Musk e o ChatGPT da OpenAI foram liberados para uso em sistemas confidenciais.

O Wall Street Journal informou que Claude da Anthropic foi usado em operações militares, incluindo o ataque que levou à prisão do líder venezuelano Nicolás Maduro e para avaliações de inteligência e identificação de alvos no conflito em curso dos EUA com o Irã. (A Tuugo.pt não confirmou de forma independente O Jornal relatórios.)

Embora a Anthropic tenha resistido fortemente à administração em matéria de armamento letal e vigilância em massa, a empresa afirma no processo que desde 2024 tem parceria com empreiteiros de segurança nacional, como a Palantir, para ajudar o governo em operações que incluem “processamento rápido de dados complexos, identificação de tendências, agilização da revisão de documentos e ajuda a funcionários do governo a tomar decisões mais informadas em situações sensíveis ao tempo”.