O Superior Tribunal de Justiça (STJ) estabeleceu um precedente histórico nesta sexta-feira (10) ao rejeitar um relatório produzido por inteligência artificial (IA) como prova em um processo criminal. A decisão, proferida pelo ministro Reynaldo Soares da Fonseca, da Quinta Turma, excluiu dos autos um documento da Polícia Civil de São Paulo que utilizou as ferramentas Gemini e Perplexity para analisar um vídeo de uma suposta ofensa racial ocorrida em 2025.
O caso envolve o vice-prefeito de São José do Rio Preto, Fábio Marcondes, acusado de insultar um segurança durante uma partida de futebol. Enquanto a perícia oficial do Instituto de Criminalística não conseguiu confirmar a palavra ofensiva por meio de análise fonética e acústica, os investigadores recorreram à IA generativa, que concluiu pela existência do xingamento. Esse relatório automatizado serviu de base para a denúncia do Ministério Público, agora contestada pela corte superior.
Em seu voto, o ministro Fonseca destacou que o uso de IA generativa em investigações criminais apresenta riscos elevados, como a “alucinação”. Esse fenômeno ocorre quando o sistema produz informações imprecisas ou fabricadas, mas com uma aparência de fidedignidade. O magistrado ressaltou que essas ferramentas operam por probabilidades estatísticas e padrões de linguagem, não possuindo a precisão técnica e científica exigida para sustentar uma acusação no Direito Penal.
Com a determinação da Quinta Turma, o relatório de IA deve ser retirado do processo imediatamente. O juiz de primeira instância foi orientado a proferir uma nova decisão sobre a continuidade da denúncia, ignorando completamente as conclusões geradas pelas ferramentas digitais. A decisão envia um recado claro às autoridades policiais sobre os limites da tecnologia, reforçando que a validação humana e pericial continua sendo soberana no sistema judiciário brasileiro.
Veja mais notícias
Fonte: News Rondônia