EUA empregam inteligência artificial Claude em operação militar contra o Irã
Os Estados Unidos utilizaram a ferramenta de inteligência artificial Claude durante a ofensiva militar conjunta com Israel contra o Irã no último sábado, 28 de fevereiro de 2026. A revelação foi feita pelo jornal The Wall Street Journal e confirmada pelo site Axios e pela agência de notícias Reuters, marcando um momento histórico no uso de tecnologias avançadas em conflitos armados.
Como a IA foi integrada nas operações militares
O Claude é um aplicativo similar ao ChatGPT, capaz de responder a perguntas e executar comandos dos usuários. Os sistemas de modelos de linguagem, como esse, podem ser conectados a outros programas para realizar funções complexas, incluindo análises estratégicas em tempo real. O Comando Central dos Estados Unidos no Oriente Médio, conhecido como Centcom, que é a principal base do Exército americano na região, integrou a inteligência artificial em suas operações rotineiras.
Segundo o Wall Street Journal, o Centcom emprega o Claude para diversas finalidades críticas:
- Avaliações detalhadas de inteligência
- Identificação precisa de alvos militares
- Simulação de cenários de batalha para planejamento estratégico
Apesar da confirmação do uso da ferramenta, o Centcom se recusou a comentar especificamente como o assistente de IA foi utilizado na operação contra o Irã, mantendo aspectos operacionais sob sigilo.
Conflito entre o governo americano e a empresa Anthropic
Enquanto o Claude era usado na ofensiva ao território iraniano, os Estados Unidos travam uma batalha legal e ética contra a Anthropic, empresa americana responsável pela criação da ferramenta. O presidente Donald Trump ordenou na sexta-feira, 27 de fevereiro, que todos os órgãos federais dos EUA cessassem imediatamente o uso de programas da Anthropic.
O governo americano expressou insatisfação com a decisão da empresa de impedir o uso irrestrito de seus modelos de inteligência artificial pelo Departamento de Guerra, também conhecido como Pentágono. Desde 2025, a Anthropic mantém um contrato de US$ 200 milhões, equivalente a aproximadamente R$ 1 bilhão, com o Pentágono para fornecer modelos de IA destinados a uma série de aplicações militares.
No entanto, a empresa estabeleceu limites claros e éticos para o uso de suas tecnologias:
- Não podem ser empregadas para vigilância em massa de cidadãos
- Não podem ser integradas em sistemas de armamento totalmente autônomos
Na quinta-feira, 26 de fevereiro, a Anthropic reafirmou sua posição, declarando que, apesar da pressão governamental, não permitiria o uso irrestrito de suas ferramentas pelo Departamento de Guerra. "Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação", afirmou a empresa em comunicado.
Declarações do diretor-executivo da Anthropic
Dario Amodei, diretor-executivo da Anthropic, explicou que os modelos de inteligência artificial foram utilizados pelos órgãos federais para defender o país, mas que a companhia mantém uma linha ética firme. Ele destacou que a empresa se opõe ao uso de suas tecnologias para vigilância em massa de cidadãos americanos e para o desenvolvimento de armas totalmente autônomas.
Amodei argumentou ainda que os sistemas de IA de ponta atualmente disponíveis não são suficientemente confiáveis para lidar com armas letais sem a supervisão humana final. "É essencial que um ser humano mantenha o controle decisório em situações que envolvem risco de vida", enfatizou o executivo, reforçando o compromisso da empresa com a segurança e a responsabilidade no uso de tecnologias emergentes.
O ataque conjunto israelense-americano resultou em escombros significativos em Teerã, capital do Irã, conforme registrado em imagens da Associated Press. Paralelamente, o Irã enfrentou novos apagões de internet durante o conflito, intensificando a instabilidade na região. Este episódio ilustra a crescente interseção entre avanços tecnológicos e estratégias militares, levantando debates cruciais sobre ética, segurança nacional e o futuro da guerra moderna.
