Da Redação
O Superior Tribunal de Justiça (STJ) decidiu, pela primeira vez, que documentos produzidos por inteligência artificial generativa não podem ser usados como prova em processos criminais. A decisão foi tomada pela Quinta Turma do tribunal e estabelece um marco importante para o uso da tecnologia no sistema de justiça brasileiro.
O caso envolvia uma acusação de injúria racial ocorrida após uma partida de futebol em Mirassol, interior de São Paulo. O acusado teria chamado a vítima de “macaco” — palavrão captado em vídeo. O problema: a perícia oficial disse que não. A IA disse que sim. E o STJ precisou decidir em quem confiar.
Perícia oficial x relatório de IA: uma contradição no centro do processo
O Instituto de Criminalística realizou uma análise técnica de fonética e acústica do vídeo e não encontrou traços que confirmassem a palavra ofensiva. Mesmo assim, os investigadores recorreram a ferramentas de inteligência artificial para fazer uma segunda análise — e o relatório gerado chegou à conclusão oposta: a expressão teria sido pronunciada sim.
Com base nesse documento produzido pela IA, o Ministério Público de São Paulo ofereceu a denúncia contra o acusado. Foi esse movimento que chegou ao STJ por meio de um habeas corpus, questionando a validade da prova.
“Alucinação”: quando a IA inventa com cara de verdade
O ministro relator Reynaldo Soares da Fonseca foi direto ao apontar o problema central: a inteligência artificial generativa não oferece confiabilidade suficiente para sustentar uma acusação penal. Em seu voto, ele destacou o fenômeno conhecido como “alucinação” — quando sistemas de IA produzem informações incorretas ou até fabricadas, mas com aparência de veracidade.
Além disso, o ministro apontou uma falha técnica grave: as ferramentas usadas foram desenvolvidas para processar texto, não áudio. Ou seja, eram inadequadas para fazer análise fonética — exatamente o tipo de análise exigido no caso.
Juiz pode discordar da perícia, mas precisa explicar o porquê
Um ponto importante do julgamento foi a questão da fundamentação. O relator deixou claro que um juiz não é obrigado a seguir cegamente o laudo pericial oficial — mas, se quiser descartá-lo, precisa apresentar razões técnicas sólidas para isso.
No caso em questão, isso não aconteceu. O relatório da IA foi tratado como alternativa válida à perícia sem qualquer explicação técnica que justificasse a troca. Para o ministro, a perícia oficial apresentou raciocínio técnico detalhado, enquanto o documento gerado pela IA foi classificado como “simplista” e sem a chamada “confiabilidade epistêmica mínima”.
O que muda com essa decisão
A Quinta Turma determinou a exclusão do relatório de IA dos autos do processo. O juiz responsável pelo caso deverá proferir uma nova decisão sobre se aceita ou não a denúncia — desta vez, sem considerar o documento gerado pela inteligência artificial.
O julgamento representa o primeiro posicionamento do STJ sobre o tema e cria um precedente relevante: provas geradas por IA precisam passar pelo crivo da racionalidade humana e atender a critérios de confiabilidade antes de serem admitidas em processos penais. A tecnologia, por si só, não basta.