Gigantes americanos de IA acusam concorrentes chineses de roubo massivo de dados
A empresa norte-americana de inteligência artificial Anthropic divulgou, nesta segunda-feira, 23 de fevereiro de 2026, uma grave denúncia contra três rivais chineses do setor. Segundo a companhia, as empresas DeepSeek, Moonshot AI e MiniMax realizaram campanhas coordenadas para extrair ilegalmente capacidades do seu chatbot Claude, em um esquema descrito como roubo de propriedade intelectual em escala industrial.
Técnica da 'destilação' é o método utilizado
A prática identificada pela Anthropic é conhecida no meio tecnológico como "destilação". Esta técnica consiste em utilizar os resultados gerados por um sistema de inteligência artificial mais avançado para aprimorar rapidamente o desempenho de modelos menos capazes. Embora seja um método comum no desenvolvimento de IA, utilizado até mesmo pelas próprias empresas para criar versões mais econômicas de seus produtos, neste caso específico a aplicação foi classificada como predatória e ilegal.
"Essas campanhas estão aumentando em intensidade e sofisticação", alertou a Anthropic em comunicado oficial. "A janela de atuação é estreita", complementou a empresa, sugerindo urgência na resposta ao problema.
Milhões de interações ilegais e contas falsas
De acordo com as investigações da empresa americana, as três companhias chinesas alcançaram seus objetivos através de aproximadamente:
- 16 milhões de interações não autorizadas com o modelo Claude
- 24 mil contas falsas criadas para burlar sistemas de segurança
Essa operação em larga escala permitiu que os laboratórios chineses extraíssem capacidades tecnológicas que não haviam desenvolvido de forma independente, obtendo avanços significativos a uma fração do custo que teriam com pesquisa própria. Mais grave ainda: ao fazer isso, contornaram deliberadamente os controles de exportação sobre tecnologia avançada americana, conforme destacou a Anthropic.
Precedente preocupante e riscos à segurança
A prática da destilação ganhou notoriedade há aproximadamente um ano, quando o lançamento de um modelo de IA generativa de baixo custo da DeepSeek apresentou desempenho comparável ao do ChatGPT e outros chatbots americanos líderes de mercado. Esse episódio abalou as suposições sobre a hegemonia dos Estados Unidos no setor de inteligência artificial.
Agora, a Anthropic levanta alertas ainda mais sérios: essa prática representa riscos concretos para a segurança nacional. Segundo a empresa, é improvável que os modelos construídos através de destilação ilícita mantenham os mecanismos de segurança originalmente concebidos para prevenir usos indevidos da tecnologia.
Entre os perigos potenciais destacados estão:
- Remoção de restrições que impedem o auxílio no desenvolvimento de armas biológicas
- Facilitação de ciberataques em larga escala
- Comprometimento de salvaguardas éticas essenciais
Eco de denúncias e apelo por ação coordenada
A OpenAI, arquirrival da Anthropic e criadora do famoso ChatGPT, já havia apresentado acusações semelhantes a legisladores norte-americanos no início deste mês. O padrão de reclamações sugere que o problema pode ser mais amplo do que inicialmente se imaginava.
Diante desse cenário, a Anthropic fez um apelo público por respostas coordenadas da indústria e do governo. A empresa argumenta que nenhuma companhia, por maior que seja, consegue enfrentar sozinha desafios dessa magnitude e complexidade. A necessidade de uma estratégia unificada tornou-se premente para proteger tanto a propriedade intelectual quanto a segurança nacional.
O caso expõe as tensões crescentes na corrida global pela supremacia em inteligência artificial, onde as fronteiras entre competição comercial, inovação tecnológica e segurança geopolítica tornam-se cada vez mais tênues e críticas para o futuro do setor.