IA

Guerra na IA: Trump Proíbe Uso do Claude da Anthropic por Agências Federais

As tensões escalam entre a startup Anthropic e o governo dos EUA. O Presidente Donald Trump ordenou a interrupção do uso do LLM Claude por todas as agências federais em seis meses, após o CEO Dario Amodei se recusar a permitir a aplicação militar de sua IA. A decisão presidencial destaca a controvérsia sobre a ética no uso de inteligência artificial em conflitos e a ironia da falta de regulamentação, que impede a Anthropic de controlar o uso de sua própria tecnologia pelas Forças Armadas.

Compartilhe
Ouvir ResumoNarrado por IA
Guerra na IA: Trump Proíbe Uso do Claude da Anthropic por Agências Federais
Foto: Divulgação / Leia Tech

VALE DO SILÍCIO, EUA - As tensões entre a startup de Inteligência Artificial (IA) Anthropic e o governo dos Estados Unidos escalaram drasticamente na última sexta-feira, 27 de fevereiro de 2026. O Presidente Donald Trump ordenou que todas as agências federais interrompam o uso do grande modelo de linguagem (LLM) Claude, desenvolvido pela empresa, em um prazo de até seis meses.

A decisão presidencial é uma resposta direta à recusa do CEO da Anthropic, Dario Amodei, em permitir que seu algoritmo seja empregado em situações de conflito. Amodei se opõe ao uso do Claude em operações militares como a invasão à Venezuela, a captura do ditador Nicolás Maduro e, mais recentemente, os ataques coordenados dos EUA e Israel ao Irã, que resultaram na destruição de infraestrutura combativa e na eliminação de importantes líderes militares, civis e religiosos iranianos, incluindo o aiatolá Ali Khamenei e o ex-presidente Mahmoud Ahmadinejad.

A Visão de Washington Versus o Vale do Silício

Donald Trump tem sido categórico ao afirmar que os Estados Unidos utilizarão IAs para "vencer guerras", independentemente da vontade das companhias. O presidente americano defende que essa prerrogativa pode ser garantida via regulação. Ironicamente, o lobby massivo que as empresas do setor de IA fizeram por anos contra a regulamentação da tecnologia agora se volta contra elas. Embora tenham garantido a liberdade de coletar dados sem restrições, essa mesma ausência de leis impede a Casa Branca de ser impedida de empregar algoritmos para fins bélicos.

Dario Amodei, um CEO atípico no Vale do Silício, tem sido vocal em sua defesa de que algoritmos, IAs e robôs não devem ser usados em conflitos. Essa postura contrasta fortemente com a de gigantes como Google, Meta e Microsoft, que colaboram abertamente e alegremente com as Forças Armadas dos EUA e aliados como Israel. Satya Nadella, da Microsoft, chegou a declarar que sua empresa não privaria instituições eleitas democraticamente do acesso a tecnologias essenciais para proteger a liberdade.

O Dilema Moral e a Realidade da Guerra

A Anthropic, contudo, não está imune a dilemas morais. A empresa já foi criticada por defender acordos com o Catar e os Emirados Árabes, países com históricos de violação dos direitos humanos. Amodei, na ocasião, descreveu a situação como um "dilema moral" que "enriqueceria ditadores", mas a empresa seguiu em frente com os negócios. No entanto, o executivo traçou uma linha ao recusar parcerias com a Arábia Saudita, possivelmente considerando o assassinato de jornalistas dentro de embaixadas como seu limite ético.

O atrito direto com o governo começou com Pete Hegseth, secretário de Defesa dos EUA, após surgirem informes de que o Claude havia sido utilizado na ação de captura de Maduro, algo que vai contra o estatuto da Anthropic. Enquanto Amodei não vê problemas no uso do algoritmo pelo Pentágono para gerenciamento de planilhas, ele se opõe veementemente ao seu emprego no controle de armas autônomas. A falta de uma alternativa à altura do Claude levou Hegseth a ameaçar a empresa de forma contundente.

O Ultimato Presidencial e Suas Consequências

Diante do impasse, o Presidente Trump tomou uma decisão drástica, emitindo um comunicado incisivo:

“OS ESTADOS UNIDOS DA AMÉRICA JAMAIS PERMITIRÃO QUE UMA EMPRESA WOKE RADICAL DE ESQUERDA DITE COMO NOSSAS GRANDES FORÇAS ARMADAS LUTAM E VENCEM GUERRAS! Essa decisão pertence ao SEU COMANDANTE-CHEFE, e aos excelentes líderes que nomeio para comandar nossas Forças Armadas.

Os lunáticos de esquerda da Anthropic cometeram um ERRO DESASTROSO ao tentar COAGIR o Departamento de Guerra, e forçá-lo a obedecer aos seus Termos de Serviço em vez da nossa Constituição. O egoísmo deles está colocando VIDAS AMERICANAS em risco, nossas tropas em perigo e nossa Segurança Nacional em RISCO.

Portanto, estou ordenando a TODAS as agências federais do Governo dos Estados Unidos que CESSEM IMEDIATAMENTE o uso da tecnologia da Anthropic. Não precisamos dela, não a queremos e não faremos negócios com eles novamente! Haverá um período de transição de seis meses para agências como o Departamento de Guerra, que utilizam os produtos da Anthropic em diversos níveis. A Anthropic precisa se organizar e colaborar durante esse período de transição, ou usarei todo o poder a mim investido para obrigá-la a cumprir as determinações, com graves consequências civis e criminais.

Nós decidiremos o destino do nosso país — e não uma empresa de IA descontrolada e radical de esquerda, administrada por pessoas que não têm a menor ideia do que é o mundo real. Obrigado pela atenção a este assunto. FAÇA A AMÉRICA GRANDE NOVAMENTE!”

Essa ordem inclui um "período de transição de seis meses" para o Departamento de Guerra, uma medida "providencial", como observado na época, visto que o Claude já estava sendo empregado na ação militar coordenada dos EUA e Israel contra o Irã. Sem regulação específica, a Anthropic se encontra incapaz de impedir o uso de sua tecnologia.

O Preço da Não-Regulamentação

O cenário atual é um reflexo direto dos anos em que as companhias de IA defenderam a não-regulamentação, usando o argumento de que a coleta de dados era aceitável e que as startups e big techs se "autorregulariam" para o bem. A ausência de regras, no entanto, oferece ao governo Trump a liberdade de usar algoritmos em soluções de guerra, sem qualquer impedimento legal.

Na União Europeia, a Lei de IA, embora tenha deixado uma brecha intencional para o uso militar de soluções generativas, estabeleceu salvaguardas contra policiamento preditivo, sistemas de reconhecimento de emoções e ranking social, enquanto autoriza o uso em aplicações como rastreamento de vítimas e combate ao terrorismo. Nos EUA, o Plano de Ação de IA apresentado por Donald Trump em 2025 apenas orienta agências a "deixarem companhias de IA em paz", sem impor limites.

Max Tegmark, cosmólogo e professor de Física do MIT, afirmou que a situação da Anthropic é uma consequência das ações da própria empresa e de outras no setor que fizeram lobby persistente contra a regulamentação. Segundo Tegmark, as IAs nos EUA hoje têm menos regulamentação que a indústria alimentícia. Ele exemplifica que, enquanto um restaurante com problemas sanitários é fechado, uma empresa de IA pode desenvolver tecnologias potencialmente perigosas com pouca ou nenhuma fiscalização.

Embora uma lei americana para regular IAs pudesse não impedir seu uso militar, ela, ao menos, daria às empresas a opção de controlar ou limitar a aplicação de suas tecnologias. Dario Amodei, CEO da Anthropic, está agora colhendo os frutos amargos de anos defendendo a não-regulamentação das IAs, e a expectativa é que não será o único.

Escrito por Redação Leia Tech