Governo dos Estados Unidos recorre de decisão judicial que protege empresa de IA Anthropic
O governo dos Estados Unidos informou nesta quinta-feira, 2 de maio, que vai recorrer da decisão judicial que o impediu de aplicar punições contra a empresa de inteligência artificial Anthropic, proprietária do assistente Claude, rival direto do ChatGPT. A disputa central gira em torno do uso irrestrito de tecnologias de IA para fins militares, com a empresa impondo limites éticos significativos.
Disputa ética e legal sobre inteligência artificial militar
Os advogados do Departamento de Justiça dos Estados Unidos manifestaram formalmente a intenção de entrar com um recurso e terão até o dia 30 de abril para apresentar seus argumentos jurídicos completos, conforme o prazo estabelecido pelo tribunal que analisa a proibição temporária das sanções contra a Anthropic. A empresa se posiciona contra a adoção de suas ferramentas em sistemas de vigilância em massa de cidadãos e em armamentos autônomos letais, criando um embate direto com as ambições militares do governo americano.
Na semana passada, o Departamento de Defesa dos Estados Unidos, popularmente conhecido como Pentágono, foi impedido pela Justiça Federal de classificar a Anthropic como um risco para a cadeia de suprimentos, uma designação normalmente reservada a empresas de nações consideradas adversárias. Simultaneamente, a Justiça americana derrubou a ordem executiva do presidente Donald Trump que instruía órgãos federais a cessarem o uso da inteligência artificial desenvolvida pela Anthropic.
Uso controverso do Claude em operações militares
Curiosamente, mesmo com a ordem judicial contrária, os Estados Unidos utilizaram o assistente Claude na recente ofensiva militar contra o Irã, conforme revelado pelo The Wall Street Journal. O sistema de IA tem sido empregado pelo Exército americano para realizar avaliações complexas de inteligência, identificar alvos potenciais e simular cenários de batalha com alto grau de precisão. Esta utilização prática destaca a importância estratégica que a tecnologia representa para as operações militares contemporâneas.
A juíza federal Rita Lin, responsável pela decisão que suspendeu as punições por uma semana, considerou que as "amplas medidas punitivas" adotadas pelo governo americano pareciam arbitrárias e capazes de paralisar a Anthropic. Em sua fundamentação, a magistrada fez uma referência literária poderosa, afirmando: "Nada na legislação vigente apoia a noção orwelliana de que uma empresa americana possa ser rotulada como uma potencial adversária e sabotadora dos EUA por expressar discordância com o governo", aludindo ao autor distópico George Orwell.
Reações e implicações da decisão judicial
A juíza Lin deixou claro que sua decisão não obriga os Estados Unidos a utilizarem os produtos da Anthropic, nem impede a transição para outros fornecedores de inteligência artificial. Entretanto, a medida gerou reações intensas no establishment militar. Um alto funcionário do Pentágono descreveu a decisão como uma "vergonha", enquanto o subsecretário de Defesa, Emir Michael, argumentou que a liminar "prejudicaria a plena capacidade" do secretário Pete Hegseth de "conduzir operações militares com os parceiros que escolher".
Diversas entidades de peso apresentaram pareceres jurídicos favoráveis à Anthropic durante o processo, demonstrando um apoio amplo à posição da empresa. Entre os apoiadores estão:
- A gigante tecnológica Microsoft
- Várias associações comerciais do setor
- Trabalhadores e sindicatos da indústria de tecnologia
- Líderes militares aposentados
- Um grupo influente de teólogos católicos
Este caso estabelece um precedente significativo para o futuro da regulação ética da inteligência artificial, especialmente em aplicações militares e de segurança nacional, colocando em conflito direto interesses de segurança estatal com princípios de governança corporativa responsável.



