Presidente Trump proíbe governo dos EUA de usar Antrópico

O Pentágono é visto de um avião, segunda-feira, 2 de fevereiro de 2026, em Washington.

O presidente Trump ordenou que o governo dos EUA parasse de usar os produtos da empresa de inteligência artificial Antrópico e o Pentágono decidiu designar a empresa como um risco à segurança nacional na sexta-feira, em uma escalada acentuada de uma luta de alto risco sobre o uso de IA pelos militares.

As decisões duplas culminam numa disputa acirrada entre a Anthropic e o Pentágono sobre se a empresa poderia proibir as suas ferramentas de serem utilizadas na vigilância em massa de cidadãos americanos ou para alimentar sistemas de armas autónomos, como parte de um contrato militar no valor de até 200 milhões de dólares.

“Os malucos de esquerda da Anthropic cometeram um ERRO DESASTROSO ao tentar FORTALECER o Departamento de Guerra e forçá-los a obedecer aos seus Termos de Serviço em vez da nossa Constituição”, escreveu Trump num post do Truth Social. “Portanto, estou instruindo TODAS as agências federais do governo dos Estados Unidos a CESSAR IMEDIATAMENTE todo o uso da tecnologia da Anthropic. Não precisamos disso, não queremos isso e não faremos negócios com eles novamente!”

Ele disse que haveria uma eliminação progressiva de seis meses dos produtos da Antrópico.

O anúncio de Trump ocorreu cerca de uma hora antes do prazo estabelecido pelo Pentágono, que pediu à Anthropic que recuasse. Pouco depois de expirado o prazo, o secretário de Defesa Pete Hegseth disse que estava rotulando a Anthropic como um risco da cadeia de suprimentos para a segurança nacional, colocando-a na lista negra de trabalhar com militares ou empreiteiros dos EUA.

“Em conjunto com a diretriz do presidente para que o governo federal cesse todo o uso da tecnologia da Antrópico, estou instruindo o Departamento de Guerra a designar o Anthropic como um risco da cadeia de suprimentos para a segurança nacional. Com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que faz negócios com os militares dos Estados Unidos pode conduzir qualquer atividade comercial com a Antrópico”, postou Hegseth no X, usando a mudança de marca “Departamento de Guerra” do Pentágono. “A Antrópica continuará a fornecer seus serviços ao Departamento de Guerra por um período não superior a seis meses para permitir uma transição perfeita para um serviço melhor e mais patriótico.”

A Antrópica disse que contestaria a designação de risco da cadeia de abastecimento em tribunal.

“Acreditamos que esta designação seria legalmente inadequada e estabeleceria um precedente perigoso para qualquer empresa americana que negocie com o governo”, disse a empresa em comunicado na noite de sexta-feira.

A Anthropic também contestou os comentários de Hegseth de que qualquer pessoa que fizesse negócios com os militares dos EUA teria que cortar todos os negócios com a Anthropic. “O secretário não tem autoridade estatutária para respaldar esta declaração”, disse a empresa. De acordo com a lei federal, disse, designar a Anthropic como risco da cadeia de suprimentos só se aplicaria ao “uso de Claude como parte de contratos do Departamento de Guerra – não pode afetar a forma como os empreiteiros usam Claude para atender outros clientes”.

A empresa disse que “tentou de boa fé” chegar a um acordo com o Pentágono ao longo de meses de negociações, “deixando claro que apoiamos todos os usos legais da IA ​​para a segurança nacional, exceto as duas pequenas exceções” em disputa. “Até onde sabemos, essas exceções não afetaram uma única missão governamental até o momento”, disse a Anthropic.

Afirmou que as suas objecções a essas utilizações se baseiam em duas razões: “Primeiro, não acreditamos que os actuais modelos de IA de fronteira sejam suficientemente fiáveis ​​para serem utilizados em armas totalmente autónomas. Permitir que os modelos actuais sejam utilizados desta forma colocaria em perigo os combatentes e civis da América. Em segundo lugar, acreditamos que a vigilância doméstica em massa dos americanos constitui uma violação dos direitos fundamentais”.

Ban ocorre no momento em que a Anthropic planeja um IPO

Funcionários do Departamento de Defesa deram à Anthropic um prazo até às 17h01, horário do leste dos EUA, na sexta-feira, para retirar as restrições ao seu modelo de IA, Claude, de ser usado para vigilância em massa doméstica ou armas totalmente autônomas, ou enfrentaria a perda de seu contrato. O Pentágono disse que não pretende usar IA dessa forma, mas exige que as empresas de IA permitam que seus modelos sejam usados ​​“para todos os fins legais”.

O governo também ameaçou invocar a Lei de Produção de Defesa da época da Guerra da Coreia para obrigar a Anthropic a permitir a utilização das suas ferramentas e, ao mesmo tempo, avisou que rotularia a Anthropic como um risco para a cadeia de abastecimento.

Em sua postagem realizando a última ameaça, Hegseth disse que a Anthropic “deu uma aula magistral sobre arrogância e traição, bem como um caso clássico de como não fazer negócios com o governo dos Estados Unidos ou o Pentágono”. Ele acusou a empresa de tentar “tomar o poder de veto sobre as decisões operacionais dos militares dos Estados Unidos”.

Ele disse que o departamento não vacilaria em sua posição: “o Departamento de Guerra deve ter acesso total e irrestrito aos modelos da Antrópico para todos os propósitos LEGAIS em defesa da República”.

“Os combatentes da América nunca serão mantidos reféns dos caprichos ideológicos da Big Tech. Esta decisão é final”, concluiu Hegseth.

A proibição governamental ocorre num momento em que a Anthropic está sob escrutínio intensificado, uma vez que a empresa, avaliada em 380 mil milhões de dólares, planeia abrir o capital este ano.

Embora o contrato do Pentágono no valor de 200 milhões de dólares seja uma parte relativamente pequena da receita de 14 mil milhões de dólares da Anthropic, não está claro como o atrito com a administração afetará os investidores ou afetará outros acordos que a empresa tem para licenciar o seu modelo de IA a parceiros não governamentais.

O CEO da Anthropic, Dario Amodei, destacou que a avaliação e a receita da empresa só cresceram desde que ela se posicionou contra os funcionários de Trump sobre como a IA pode ser implantada no campo de batalha.

A questão de saber se as empresas de IA podem estabelecer restrições sobre a forma como o governo utiliza a sua tecnologia surgiu como um grande obstáculo nos últimos meses entre a Anthropic e a administração Trump.

Na quinta-feira, Amodei disse que a empresa não cederia diante das ameaças do Pentágono. “Não podemos, em sã consciência, aceder ao seu pedido”, escreveu ele numa longa declaração.

Uma foto de arquivo de 2024 de Dario Amodei, CEO e cofundador da Anthropic.

“A Antthropic entende que o Departamento de Guerra, e não as empresas privadas, toma decisões militares. Nunca levantamos objeções a operações militares específicas nem tentamos limitar o uso de nossa tecnologia de uma forma Ad hoc “, disse ele. Mas, acrescentou, a vigilância doméstica em massa e as armas totalmente autônomas são usos que estão “simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade”.

Emil Michael, subsecretário de pesquisa e engenharia do Pentágono, respondeu em uma postagem no X na quinta-feira, acusando Amodei de mentir e de ter um “complexo de Deus”.

“Ele não quer nada mais do que tentar controlar pessoalmente as Forças Armadas dos EUA e está tudo bem em colocar em risco a segurança de nossa nação”, escreveu Michael. “O @DeptofWar SEMPRE cumprirá a lei, mas não se curvará aos caprichos de qualquer empresa de tecnologia com fins lucrativos”, escreveu ele.

Em uma entrevista na quinta-feira à CBS News, Michael disse que a lei federal e as políticas do Pentágono já proíbem o uso de IA para vigilância doméstica em massa e armas autônomas”.

“Em algum nível, você tem que confiar que seus militares farão a coisa certa”, disse ele.

OpenAI expressou preocupações semelhantes

Qualquer esforço do Pentágono para substituir o Antrópico poderia ser complicado. Na sexta-feira, o CEO da OpenAI, Sam Altman, disse que compartilha as “linhas vermelhas” da Antrópico que restringem o uso militar de IA.

OpenAI, Google e xAI de Elon Musk também têm contratos com o Departamento de Defesa e concordaram em permitir que suas ferramentas de IA sejam usadas em quaisquer cenários “legais”. Esta semana, a xAI se tornou a segunda empresa depois da Anthropic a ser aprovada para uso em ambientes classificados.

Altman disse à CNBC na manhã de sexta-feira que é importante que as empresas trabalhem com os militares “desde que cumpram as proteções legais” e “as poucas linhas vermelhas” que “compartilhamos com a Antthropic e com as quais outras empresas também concordam de forma independente”.

Sam Altman, cofundador e CEO da OpenAI, testemunhando perante um comitê do Senado em 2025.

Numa nota interna enviada ao pessoal na noite de quinta-feira, Altman disse que a OpenAI estava a tentar negociar um acordo com o Pentágono para implantar os seus modelos em sistemas classificados com exclusões que impedem a utilização para vigilância nos EUA ou para alimentar armas autónomas sem aprovação humana, de acordo com uma pessoa familiarizada com a mensagem que não estava autorizada a falar publicamente. O Jornal de Wall Street relatou pela primeira vez a nota de Altman à equipe.

O Departamento de Defesa não respondeu a um pedido de comentário sobre as declarações de Altman.

Especialistas independentes dizem que o impasse é altamente incomum no mundo das contratações do Pentágono.

“Isso é diferente, com certeza”, disse Jerry McGinn, diretor do Centro para a Base Industrial do Centro de Estudos Estratégicos e Internacionais, um think tank de Washington DC. Os empreiteiros do Pentágono geralmente não informam ao Departamento de Defesa como seus produtos e serviços podem ser usados, observa ele, “porque, caso contrário, você estaria negociando casos de uso para cada contrato, e isso não é razoável de se esperar”.

Ao mesmo tempo, observou McGinn, a inteligência artificial é uma tecnologia nova e em grande parte não testada. “Esta é uma luta muito incomum e muito pública”, disse ele. “Acho que reflete a natureza da IA.”

Bobby Allyn da NPR contribuiu para este relatório.