Mais de 560 funcionários do Google assinaram uma carta aberta endereçada ao CEO Sundar Pichai, solicitando que a empresa se recuse a permitir o uso de suas tecnologias de inteligência artificial em operações militares sigilosas do governo dos Estados Unidos. O documento reacende o debate sobre ética, vigilância e o papel das big techs na guerra digital.
Pressão interna e risco reputacional
A mobilização ocorre em meio a relatos de que o Google estaria próximo de fechar um acordo com o Departamento de Defesa dos EUA para utilizar seu modelo de IA, o Gemini, em operações classificadas, possivelmente sem as salvaguardas exigidas por outras empresas do setor. Os signatários argumentam que aceitar esse tipo de contrato criaria um risco reputacional significativo e limitaria a capacidade dos próprios funcionários de fiscalizar como a tecnologia é utilizada. Em projetos confidenciais, não haveria transparência suficiente para evitar abusos, segundo os funcionários.
Disputa com governo amplia tensão no setor
O episódio não é isolado. Empresas de tecnologia vêm sendo pressionadas a definir limites claros para o uso militar de suas ferramentas. A startup Anthropic, por exemplo, entrou em confronto com o governo americano ao impor restrições ao uso de seus modelos, especialmente em aplicações ligadas a armas autônomas e vigilância doméstica. A decisão levou a uma reação direta do governo liderado por Donald Trump, que classificou a empresa como risco na cadeia de suprimentos e determinou a suspensão de seus serviços em órgãos federais. A disputa foi parar na Justiça.
Histórico de conflitos dentro do Google
A resistência interna no Google tem precedentes. Em 2018, milhares de funcionários protestaram contra o chamado Project Maven, iniciativa que utilizava IA para aprimorar ataques com drones. O movimento levou a empresa a não renovar o contrato e a adotar princípios que limitavam o uso da tecnologia em armas e vigilância. Essas diretrizes, no entanto, foram suavizadas recentemente. A empresa retirou de seus princípios de IA trechos que proibiam explicitamente o desenvolvimento de tecnologias voltadas a causar danos diretos a pessoas. A mudança reflete uma reavaliação estratégica diante de um cenário global mais competitivo e instável, segundo executivos.
Demis Hassabis, cofundador da DeepMind, afirmou que o contexto atual, com múltiplos atores desenvolvendo sistemas avançados, impõe às empresas americanas um papel na defesa nacional.
Divisão entre segurança e direitos civis
A carta também levanta preocupações com o uso da IA em vigilância em massa, apontando riscos a liberdades civis. O cientista-chefe do Google, Jeff Dean, já se manifestou publicamente contra esse tipo de aplicação, citando impactos negativos sobre a liberdade de expressão. Funcionários envolvidos na mobilização afirmam que o debate não é teórico. Eles citam exemplos de uso de tecnologias digitais para reforçar mecanismos de controle estatal em países como China.
Corrida pela IA redefine fronteiras éticas
O impasse ocorre em um momento de intensa competição global por liderança em inteligência artificial, envolvendo empresas como OpenAI e gigantes de tecnologia tradicionais. À medida que governos ampliam o interesse em aplicações militares e estratégicas, cresce também a pressão sobre as empresas para definir limites éticos, e comerciais, para suas tecnologias. No centro desse debate está uma pergunta ainda sem resposta clara: até que ponto companhias privadas devem colaborar com usos militares da inteligência artificial, especialmente quando os impactos podem extrapolar o campo de batalha e atingir a sociedade civil.



