STJ define novo limite para uso de IA como prova em processos criminais
STJ limita uso de IA como prova criminal

Em abril de 2026, o Superior Tribunal de Justiça (STJ) tomou uma decisão inédita ao determinar que um relatório produzido com auxílio de inteligência artificial generativa não poderia ser utilizado como prova para fundamentar uma acusação em processo criminal. Na prática, a Corte estabeleceu que não é possível colocar alguém no banco dos réus confiando apenas em informações geradas por uma máquina, por mais treinada que seja.

O caso concreto

O caso teve origem em um jogo de futebol em Mirassol, em 2025, quando um segurança do Palmeiras alegou ter sido vítima de injúria racial. Um áudio foi analisado pelo Instituto de Criminalística, por peritos humanos especializados em som, que concluíram não ser possível afirmar que a palavra racista foi dita. Inconformada, a polícia utilizou ferramentas de IA generativa para analisar o mesmo áudio, produzindo um relatório que indicava o contrário, sustentando a acusação do Ministério Público.

A defesa recorreu ao STJ, que determinou a retirada do relatório gerado por IA do processo e ordenou que o caso retornasse à primeira instância para que o juiz avalie se a denúncia se sustenta sem essa prova. O STJ deixou claro que o documento gerado por IA não é confiável o suficiente para embasar uma acusação criminal.

Banner largo do Pickt — app de listas de compras colaborativas para Telegram

Confiança e limites da IA

O tribunal não se limitou a questionar a legalidade do uso da IA, mas aprofundou a análise sobre a confiabilidade do resultado. Para o STJ, não basta que a prova seja obtida dentro da lei; é necessário que ela seja capaz de gerar conhecimento confiável sobre os fatos. A IA generativa, no caso, foi classificada como frágil e duvidosa, não servindo para fundamentar uma acusação séria.

Risco de alucinação

O relator, ministro Reynaldo Soares da Fonseca, apontou dois problemas centrais. O primeiro é o risco de alucinação: modelos de linguagem funcionam calculando probabilidades e podem gerar respostas convincentes, mas erradas. Em um processo penal, isso pode levar a acusações baseadas em informações inventadas pela máquina.

Ferramenta inadequada

O segundo problema é que a polícia utilizou ferramentas de IA feitas para texto, não para análise científica de áudio. O STJ destacou que esses modelos não realizam análise espectrográfica do som, apenas geram texto a partir de transcrições, não podendo substituir uma perícia oficial.

Impacto prático

A decisão protege o direito de defesa, a necessidade de provas sérias antes de acusar e a confiança na Justiça. O STJ reforça que tecnologia não pode ser um atalho para acusar pessoas sem provas robustas.

O tribunal não proibiu o uso de IA no sistema de Justiça, mas estabeleceu limites. Usos aceitáveis incluem organizar documentos, transcrever áudios, resumir peças e encontrar precedentes, sempre com supervisão humana. O que não é permitido é substituir a perícia humana por textos de IA generativa ou usá-la para driblar laudos oficiais.

Para investigações e denúncias, a decisão deixa recados claros: a polícia pode usar IA como apoio, mas não para fabricar provas; o Ministério Público deve evitar denúncias baseadas em relatórios de IA que contradigam perícias oficiais; a defesa ganha argumentos para questionar documentos gerados por IA; e os juízes têm um critério mais claro para admitir esse tipo de material.

No fim, a mensagem do STJ é simples: IA é uma ferramenta poderosa, mas não substitui método científico, perícia qualificada e responsabilidade humana. Em decisões sérias, a tecnologia deve ser usada como apoio, não como substituta do julgamento humano.

Banner pós-artigo do Pickt — app de listas de compras colaborativas com ilustração familiar