Anthropic desafia Pentágono em disputa histórica sobre limites éticos da inteligência artificial militar
Anthropic vs Pentágono: disputa histórica sobre IA militar

Confronto histórico entre gigante do Vale do Silício e poder militar americano

Enquanto o mundo acompanhava as tensões geopolíticas envolvendo Venezuela e Irã, uma batalha silenciosa, porém crucial, se desenrolava em Washington. A empresa de inteligência artificial Anthropic, sediada em San Francisco, recusou-se a obedecer ordens diretas do Pentágono, o departamento de Defesa dos Estados Unidos. Em resposta, o órgão militar tratou a companhia como se fosse uma adversária do Estado, mesmo continuando a depender de sua tecnologia avançada por considerá-la indispensável.

Este embate, que se intensificou nas últimas semanas, representa muito mais do que uma simples disputa corporativa. Trata-se do primeiro caso documentado em que uma desenvolvedora de IA confronta diretamente o aparato militar de uma superpotência, recusando-se a remover limites éticos preestabelecidos em sua tecnologia. O episódio levanta questões fundamentais sobre até que ponto decisões letais e irreversíveis estão sendo delegadas a máquinas e quem realmente controla o uso da inteligência artificial em contextos bélicos.

Operação na Venezuela acende o estopim

O ponto de ignição ocorreu durante a operação que culminou com a captura do então presidente venezuelano Nicolás Maduro em 3 de janeiro. Segundo informações divulgadas independentemente pelo Wall Street Journal e pelo site Axios, e posteriormente confirmadas pela revista Time, a ferramenta Claude, desenvolvida pela Anthropic, foi utilizada para processar dados e auxiliar na tomada de decisões durante a ação militar.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Embora nem o Departamento de Defesa nem a Anthropic tenham confirmado oficialmente esses detalhes, o desdobramento posterior está amplamente documentado e revela aspectos mais profundos do conflito. Após a captura de Maduro, um executivo da Anthropic questionou a Palantir – empresa que atua como intermediária tecnológica entre o Vale do Silício e o governo americano – se seu software havia sido empregado na operação.

Essa simples pergunta acionou alarmes em Washington. Emil Michael, Subsecretário de Defesa e Diretor de Tecnologia do Pentágono, expressou preocupação de que, em um conflito futuro, a Anthropic poderia "desligar seu modelo no meio de uma operação" e colocar vidas em risco. A empresa contesta essa interpretação, afirmando que a consulta era rotineira e que nunca tentou limitar o uso específico do Pentágono.

Escalada de tensões e linhas vermelhas

A resposta do Pentágono foi imediata e contundente: exigiu acesso irrestrito à tecnologia da Anthropic para "todos os usos legais". A empresa recusou. Pete Hegseth, Secretário de Defesa da administração Trump, classificou a Anthropic como um "risco para a cadeia de suprimentos", um rótulo tradicionalmente reservado para empresas ligadas a rivais estrangeiros como Huawei ou Kaspersky.

A Anthropic, por sua vez, processou o Pentágono por exceder sua autoridade e violar salvaguardas éticas. Vários especialistas jurídicos acreditam que a empresa tem grandes chances de vencer a disputa judicial. O presidente Donald Trump ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic e atacou a empresa nas redes sociais, chamando-a de "progressista e radical de esquerda".

O cerne do conflito reside nas "linhas vermelhas" estabelecidas pela Anthropic em seu contrato de US$ 200 milhões com o Departamento de Defesa, assinado em julho de 2025. A empresa, fundada em 2021 por ex-pesquisadores da OpenAI com a premissa explícita de que a IA representa um risco existencial para a humanidade, estabeleceu dois limites invioláveis:

  • O Claude não poderia ser usado para vigilância doméstica em massa
  • O Claude não poderia ser usado para armas totalmente autônomas

Dario Amodei, cofundador e CEO da Anthropic, justificou essas restrições em texto publicado em janeiro deste ano, argumentando que "os sistemas de IA de última geração simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas".

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar

O vácuo da governança global

Especialistas da Universidade de Oxford alertam que este episódio "revela lacunas de governança antigas na integração da IA em operações militares". Logan Graham, líder da Equipe Vermelha da Anthropic, que analisa cenários negativos envolvendo tecnologia, resume o problema: "A intuição de algumas pessoas é de que em algum lugar existe uma sala cheia de adultos que sabem como resolver tudo. Não existem esses grupos de adultos."

O direito internacional apresenta um "vácuo de responsabilidade" crítico quando se trata de sistemas autônomos. As estruturas legais existentes, construídas em torno de decisões humanas desde as Convenções de Genebra, não conseguem determinar quem é responsável quando um sistema autônomo comete uma violação. Se um drone com inteligência artificial matar civis, quem será responsabilizado? O programador, o comandante ou a empresa fabricante? O direito internacional não oferece resposta clara.

Em 2024, durante conferência internacional em Viena, o Ministro das Relações Exteriores da Áustria comparou o momento atual ao "momento Oppenheimer de nossa geração", referindo-se à tomada de consciência sobre o poder destrutivo da bomba atômica. Naquele mesmo ano, a Assembleia Geral da ONU adotou resolução criando fórum para discutir armas autônomas, com 166 votos a favor e apenas três contra (Rússia, Coreia do Norte e Belarus).

Realidade atual e paradoxo final

Enquanto advogados e diplomatas debatem, a tecnologia já está sendo implementada em campos de batalha. Na Ucrânia, em dezembro de 2024, forças realizaram a primeira operação totalmente não tripulada perto de Kharkiv, com dezenas de veículos terrestres autônomos e drones atacando posições russas sem soldados em terra. Drones já causam entre 70% e 80% das vítimas nessa guerra, segundo estimativas da inteligência europeia.

O desfecho do confronto apresenta paradoxos significativos. Após declarar que não poderia "em sã consciência" atender às exigências do Pentágono, a Anthropic perdeu o contrato. Horas depois, a OpenAI – sua principal concorrente – chegou a um acordo com o Departamento de Defesa.

Contudo, no dia seguinte ao anúncio do novo acordo, o aplicativo Claude ultrapassou o ChatGPT da OpenAI na App Store da Apple pela primeira vez na história, com mais de um milhão de cadastros diários. Duas coalizões de trabalhadores da Amazon, Google, Microsoft e OpenAI pediram publicamente que suas empresas seguissem o exemplo da Anthropic, e dezenas de cientistas assinaram parecer jurídico em apoio à empresa.

Talvez o aspecto mais revelador seja que a Anthropic consolidou o apoio de seus próprios engenheiros – alguns dos profissionais mais requisitados do Vale do Silício – em um dos mercados de talentos mais competitivos do planeta. O caso estabelece precedente crucial sobre a responsabilidade ética no desenvolvimento de tecnologias com potencial transformador para a segurança global e o futuro da humanidade.