Governo Trump pressiona empresa de IA para uso militar irrestrito
O governo do presidente Donald Trump emitiu um ultimato à empresa de inteligência artificial Anthropic, exigindo que libere sua tecnologia para uso irrestrito pelo Exército dos Estados Unidos. Segundo informações da agência Associated Press, o secretário de Defesa, Pete Hegseth, estabeleceu prazo até esta sexta-feira (27) para que a empresa aceite as condições, sob ameaça de rompimento de contratos governamentais e classificação como "risco da cadeia de suprimentos".
Resistência ética da Anthropic
A Anthropic, proprietária da ferramenta de IA Claude especializada em segurança, é a última entre suas concorrentes a resistir à pressão para fornecer tecnologia para uma nova rede interna das Forças Armadas norte-americanas. A empresa mantém políticas que proíbem o uso de sua inteligência artificial para fins de violência, e seu CEO, Dario Amodei, expressou repetidamente preocupações éticas com o uso governamental irrestrito.
"Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam", escreveu Amodei em ensaio recente. O executivo alertou especificamente sobre os perigos de drones armados totalmente autônomos e sistemas de vigilância em massa assistidos por IA.
Medidas coercitivas do Pentágono
Diante da resistência da empresa, Hegseth ameaçou classificar a Anthropic como "risco à cadeia de suprimentos" ou acionar a Lei de Produção de Defesa (DPA). A primeira medida transformaria a empresa em risco à segurança nacional, sujeitando-a a restrições de importação, exclusão de licitações e barreiras em setores considerados vitais.
Já a DPA concede ao presidente dos EUA poderes emergenciais para intervir na economia em prol da defesa nacional. Empresas que recebem ordens sob esta legislação devem cumpri-las sob pena de multas, sanções criminais, perda de contratos governamentais ou até intervenção federal direta.
Encontro tenso no Pentágono
Hegseth convocou Amodei para reunião no Pentágono na semana passada, onde, segundo fontes ouvidas pela AP, o tom foi cordial, mas o CEO não recuou em dois pontos considerados linhas vermelhas para a Anthropic: operações militares de mira totalmente autônomas e vigilância doméstica de cidadãos americanos.
O Pentágono enviou nesta quinta-feira (26) o que chamou de "oferta final" para o uso do Claude pelo Exército, tentando evitar as sanções à empresa. Autoridades do Departamento de Defesa argumentam que operações militares precisam de ferramentas sem limitações embutidas e que o uso legal seria responsabilidade dos militares.
Contexto estratégico e concorrência
O impasse ocorre enquanto Hegseth promete eliminar o que chama de "cultura woke" nas Forças Armadas e afirma que descartará modelos de IA "que não permitam lutar guerras". O Pentágono anunciou no ano passado contratos com quatro empresas de IA —Anthropic, Google, OpenAI e xAI— cada um no valor de até US$ 200 milhões.
"Os concorrentes da Anthropic, incluindo Meta, Google e xAI, aceitaram a política do departamento de permitir o uso dos modelos para todas as aplicações legais", afirmou Owen Daniels, do Centro para Segurança e Tecnologia Emergente da Universidade Georgetown. "Assim, o poder de barganha da empresa é limitado."
Precedentes e preocupações
Esta não é a primeira vez que as normas éticas mais rígidas da Anthropic a colocam em rota de colisão com o governo Trump. A empresa já criticou publicamente propostas de flexibilização de controles de exportação que permitiriam vender chips de IA para a China.
Para Amos Toh, do Brennan Center da Universidade de Nova York, a adoção acelerada de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. "A lei não acompanha a velocidade da evolução tecnológica", escreveu Toh. "Mas isso não significa que o Departamento de Defesa tenha carta branca."
O debate ressalta questões fundamentais sobre o papel da inteligência artificial na segurança nacional e as preocupações éticas sobre seu uso em situações críticas envolvendo força letal, informações sensíveis ou vigilância governamental em escala sem precedentes.



