Governo dos EUA classifica IA Claude como risco militar e enfrenta processo da Anthropic
EUA declaram IA Claude risco militar; Anthropic processa governo

Conflito entre EUA e empresa de IA Anthropic se intensifica sobre uso militar do Claude

O governo dos Estados Unidos manteve nesta terça-feira, 17, sua posição firme de que a empresa de inteligência artificial Anthropic constitui um "risco inaceitável" para o abastecimento militar do país. A declaração reforça a decisão recente de classificar a companhia como uma ameaça à segurança nacional, uma medida que já havia sido tomada no início deste mês.

Recusa ao uso irrestrito de IA militar desencadeia crise

A classificação ocorreu após a Anthropic se recusar a permitir o uso irrestrito de sua tecnologia de IA por forças militares norte-americanas. Em resposta, a empresa ingressou com um processo judicial contra o governo, acirrando ainda mais o embate. O modelo de IA Claude, desenvolvido pela Anthropic, tem sido alvo de atenção nas últimas semanas por seu suposto envolvimento na identificação de alvos para bombardeios dos EUA no Irã e, principalmente, por sua resistência em aceitar aplicações ilimitadas em operações bélicas.

O Pentágono, que foi renomeado como Departamento de Guerra durante a administração do ex-presidente Donald Trump, justificou o rompimento dos laços com a Anthropic após a ação judicial ser movida. De acordo com um documento obtido pela agência de notícias AFP, o órgão avalia que manter o acesso da empresa à infraestrutura de combate militar representa um perigo significativo para as cadeias de suprimentos.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Vulnerabilidade e riscos de manipulação da tecnologia

"Os sistemas de inteligência artificial são especialmente vulneráveis à manipulação", argumentou o governo em suas alegações apresentadas a um tribunal federal da Califórnia. O texto destaca que a Anthropic poderia potencialmente desativar sua tecnologia ou alterar preventivamente o comportamento do modelo Claude antes ou durante operações militares em andamento, caso a empresa considere que suas diretrizes corporativas, conhecidas como 'linhas vermelhas', estão sendo violadas.

O documento oficial enfatiza que a recusa da Anthropic em permitir o uso de sua tecnologia por militares em "qualquer uso legal" é vista como um risco inaceitável para a segurança nacional. "O comportamento da Anthropic levou o Departamento a questionar se a Anthropic representava um parceiro confiável", afirmou o governo em sua defesa.

Impactos da classificação como risco para a cadeia de suprimentos

A designação da Anthropic como "risco para a cadeia de suprimentos", que está sendo contestada judicialmente pela empresa, pode resultar em sérias consequências. Essa classificação tem o potencial de impedir que fornecedores do governo federal realizem negócios com a Anthropic, uma medida tipicamente reservada para organizações de países adversários, como a gigante tecnológica chinesa Huawei.

Enquanto isso, outras grandes empresas de tecnologia dos Estados Unidos, incluindo a Microsoft, manifestaram apoio à Anthropic. A Microsoft, que utiliza o modelo Claude e também presta serviços ao exército americano, argumentou em um texto jurídico apresentado ao tribunal na semana passada que "não é o momento de pôr em risco o ecossistema de IA que a administração contribuiu para impulsionar".

O diretor-executivo da Anthropic, Dario Amodei, e o ex-presidente Donald Trump têm sido figuras centrais nesse debate, com a controvérsia destacando as tensões entre inovação tecnológica e exigências de segurança nacional. O desfecho desse conflito poderá estabelecer precedentes importantes para o futuro da regulamentação e do uso de inteligência artificial em contextos militares em todo o mundo.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar