A expansão tecnológica e o velho problema da prova
É recorrente que inovações tecnológicas ingressem no processo penal acompanhadas da promessa de solucionar dilemas antigos, como se fossem capazes de alterar a própria natureza do julgamento. A cada novo instrumento, renova-se a expectativa de que a técnica (e aqui, especialmente, a técnica algorítmica, que poderá ser alcunhada como “tecnologia decisória automatizada”) finalmente substituirá a incerteza, oferecendo decisões mais rápidas, previsíveis e seguras. No entanto, por trás dessa aparência de modernidade, permanece uma constatação elementar: nenhuma prova se impõe sem interpretação.
Se isso já era verdadeiro em um contexto de registros manuscritos, depoimentos orais e documentos físicos, torna-se ainda mais evidente quando cresce a confiança no “dado” ao mesmo tempo em que se enfraquece o exame crítico de sua origem. A tecnologia não elimina a mediação humana; apenas a torna menos visível. O problema não é a introdução de novos meios de prova, mas a crença de que eles falariam por si, dispensando o esforço interpretativo que sempre acompanhou o Direito.
A inteligência artificial exerce fascínio precisamente por sugerir neutralidade, rapidez e precisão. Essa sedução, contudo, cobra um preço. Em nome da eficiência, instala-se o risco de substituir a prudência pela crença de que a máquina percebe aquilo que o intérprete humano não alcança. Essa expectativa ignora um dado elementar: as ferramentas se transformam, mas a falibilidade humana permanece. O erro não desaparece; apenas muda de lugar e, muitas vezes, passa a operar de modo mais silencioso.
Por essa razão, resultados algorítmicos que ingressam no processo com aparência de autoridade não reduzem o problema hermenêutico. Ao contrário, exigem um esforço interpretativo ainda mais rigoroso, capaz de identificar pressupostos, limites, margens de erro e escolhas técnicas que raramente são explicitadas. A prova tecnológica não diminui a complexidade do julgamento; ela a intensifica, exigindo instituições ainda mais conscientes de seus próprios limites. É justamente nesse ponto que se impõe a análise de um equívoco cíclico: a crença de que algoritmos poderiam oferecer decisões neutras e livres de interpretação.
Os algoritmos e o mito da neutralidade técnica
Entre os mitos persistentes do Direito contemporâneo, destaca-se o da neutralidade técnica e científica. O apelo dos números, das probabilidades e dos percentuais alimenta a ideia de que algoritmos expressariam uma linguagem mais verdadeira do que aquela construída pelo intérprete jurídico.
Modelos algorítmicos não operam em um vazio axiológico. São produtos de decisões humanas: seleção de dados, definição de variáveis relevantes, exclusões silenciosas, hierarquizações implícitas. Cada uma dessas etapas condiciona o resultado final. A aparência de objetividade estatística encobre essas escolhas e cria a sensação de inevitabilidade da conclusão.
É dizer: quando isso ocorre, o processo penal passa a tratar relatórios algorítmicos como reflexos diretos da realidade, quando, na verdade, está diante de reconstruções mediadas por critérios invisíveis. A técnica algorítmica, nesse ponto, deixa de ser instrumento e passa a funcionar como argumento de autoridade, bloqueando o questionamento e reduzindo o espaço do contraditório.
![]()
A promessa de um ponto fixo, capaz de eliminar a disputa interpretativa, revela-se ilusória. A técnica algorítmica não elimina a interpretação; apenas a desloca para um plano menos visível e, por isso mesmo, mais perigoso. O risco não está no uso da tecnologia, mas na abdicação crítica diante dela. Quando o intérprete deixa de perguntar “como” e “por que” aquele resultado foi produzido, o processo deixa de ser espaço de justificação pública e passa a funcionar como instância de validação automática. O problema é que, quando a interpretação se torna invisível, também se tornam invisíveis os vieses que passam a orientar a decisão. A ver.
Vieses invisíveis e a formação da convicção judicial
A hermenêutica jurídica tradicionalmente ensina a desconfiar: de testemunhos, documentos, memórias e circunstâncias. Essa postura cautelosa é fruto de uma longa experiência institucional com o erro, a manipulação e a falibilidade humana. Curiosamente, essa vigilância tende a enfraquecer quando a prova assume a forma de gráficos, percentuais e relatórios técnicos. A estética da tecnologia produz um efeito anestesiante, reduzindo a disposição para o questionamento.
Há também um fator psicológico relevante. Explica-se.
Diante de instrumentos altamente especializados, instala-se a suposição de que a máquina sabe mais. Essa “deferência epistêmica” desarticula a decisão do campo da responsabilidade interpretativa para o terreno de uma espécie de “cegueira deliberada”, que calca-se apenas no que se denominaria “fé algorítmica”. Uma crença que se justifica nela por ela mesmo.
Porém, esta confiança não constitui (e obviamente que não!) fundamento jurídico. O processo penal não se legitima pela autoridade do meio técnico, mas pela possibilidade de contestação, explicação e controle.
Se arriscaria aqui a dizer: a inteligência artificial, dentro de parâmetros algorítmicos, seria até capaz de “pensar”, no sentido de processar informações e produzir respostas. Todavia, jamais poderia refletir. Afinal, refletir é pensar sobre o próprio pensamento — isto é, reconhecer os pressupostos, limites e ficções que estruturam uma decisão. Quando esse momento reflexivo é suprimido, corre-se o risco de tratar construções técnicas como se fossem a própria realidade.
Sobre o processo pelo qual construções teóricas passam a ser naturalizadas no discurso jurídico, operando como se fossem dados objetivos da realidade, ver STRECK, Lenio Luiz.[1]
Um reconhecimento facial, por exemplo, acompanhado de elevado índice percentual pode parecer, à primeira vista, incontestável. Ainda assim, trata-se apenas de uma leitura condicionada por bancos de dados específicos, padrões estatísticos delimitados e margens de erro frequentemente desconhecidas.
Quando o julgador trata esse resultado como verdade objetiva, substitui a prudência pelo encantamento. E o encantamento, no Direito, costuma ser o primeiro passo para a arbitrariedade involuntária.
A formação da convicção judicial exige algo mais difícil: reconhecer que nem mesmo a tecnologia afasta a necessidade de justificar, explicar e limitar conceitos. Decisões legítimas não nascem da fé no artefato, mas do reconhecimento explícito de suas fragilidades e do dever institucional de contenção. Quando esse dever é substituído pela confiança acrítica em resultados técnicos, abre-se espaço para uma nova forma de decisionismo, agora mediada por algoritmos.
O risco do decisionismo algorítmico
Poucos fenômenos são tão discretos quanto o decisionismo revestido de técnica algorítmica. O voluntarismo explícito é facilmente identificável; mais difícil é perceber aquele que se oculta na delegação à máquina [2]. Quando a decisão judicial se ancora exclusivamente em resultados algorítmicos, transfere-se à tecnologia uma responsabilidade que é, por definição, institucional.
Essa circunstância produz um efeito colateral relevante: o alívio psicológico de “não decidir”. A decisão parece emergir do sistema, e não do intérprete. O juiz torna-se mero transmissor de um resultado algorítmico, como se isso fosse suficiente para cumprir o dever constitucional de fundamentação. No entanto, o Direito não admite esse tipo de abdicação. A decisão permanece humana, mesmo quando mediada por números, códigos e probabilidades (ao menos é o que se espera).
No campo jurídico, há limites e estes continuam sendo dados pela Constituição e não pela promessa de precisão tecnológica. Quando a técnica algorítmica passa a orientar o sentido do Direito, e não o contrário, o processo penal deixa de conter o poder e passa a amplificá-lo. A resposta a esse desvio não está em rejeitar esta técnica, mas em reinscrever a decisão jurídica na tradição hermenêutica que a limita e a responsabiliza.
A hermenêutica necessária: limites, responsabilidade e tradição
A incorporação da inteligência artificial ao processo penal não é uma questão de entusiasmo, mas de arquitetura institucional. Ferramentas sofisticadas funcionam adequadamente quando operam dentro de limites claros e transparentes, jamais como substitutas da responsabilidade interpretativa. O erro não está em utilizar tecnologia, mas em permitir que ela ocupe o lugar da justificação jurídica.
O Direito permanece como prática de justificação pública. Cada decisão precisa integrar uma narrativa coerente com a tradição constitucional e resistir à sedução do imediato. A aceleração tecnológica torna ainda mais necessária a paciência interpretativa, notadamente porque quanto mais rápidos são os meios, maior deve ser o cuidado com os fins.
Limites não representam entraves, mas condições de possibilidade. Em contextos marcados por promessas excessivas, a maturidade institucional consiste em reconhecer que os limites não aprisionam — eles evitam um verdadeiro “naufrágio”. A Constituição segue desempenhando o papel de mastro: não para impedir o movimento, mas para garantir que o rumo não seja abandonado diante de cada novo canto sedutor.
Ao final, talvez a questão central não seja tecnológica, mas humana. O desafio não está em saber se os algoritmos erram, mas em decidir quem responde quando erram. Enquanto essa resposta não for institucionalmente clara, a hermenêutica continuará sendo o único antídoto contra a ilusão de que o cálculo pode substituir o compromisso com os limites que tornam o Direito algo mais do que mera técnica de poder.
Conclusão: tecnologia, decisão e o problema da responsabilidade
A incorporação de tecnologias sofisticadas ao processo penal costuma ser acompanhada de um discurso de progresso inevitável (quanto perigo há nisso !). Fala-se em modernização, eficiência e racionalização da justiça como se tais valores fossem autoexplicativos e, sobretudo, neutros. No entanto, o ponto decisivo não reside na sofisticação do instrumento, mas na forma como ele é incorporado às práticas institucionais. A história do Direito demonstra que toda promessa de neutralidade técnica, quando não submetida a limites, tende a reposicionar — e não eliminar — os riscos de arbitrariedade.
Nesse contexto, o problema central não é saber se a inteligência artificial pode auxiliar a atividade jurisdicional, mas em que condições isso ocorre.
A decisão penal continua sendo um ato de poder, ainda que intercedido por algoritmos, gráficos ou probabilidades estatísticas. A tecnologia não dissolve a necessidade de justificar; ao contrário, amplia a responsabilidade de quem decide, justamente porque adiciona camadas de opacidade ao processo decisório.
Quando resultados algorítmicos passam a operar como razões autossuficientes, o processo penal deixa de ser espaço de contenção e se aproxima perigosamente de um modelo de validação automática. A decisão, nesse cenário, corre o risco de perder seu caráter público e argumentativo, transformando-se em simples chancela de um resultado técnico cuja lógica poucos compreendem e quase ninguém controla.
A aparência de objetividade estatística encobre essas escolhas e cria a sensação de inevitabilidade da conclusão, fazendo com que construções teóricas passem a ser tratadas como dados naturais da realidade.
Sobre o processo pelo qual determinadas construções teóricas se naturalizam no discurso jurídico, passando a operar como evidências autojustificadas, ver STRECK, Lenio Luiz.[3]
Por isso, a verdadeira questão não é tecnológica, mas institucional. Trata-se de decidir se o Direito continuará sendo um espaço de responsabilidade interpretativa ou se será progressivamente convertido em terreno de delegação acrítica. A legitimidade da decisão penal não nasce do cálculo, mas da fidelidade a limites previamente estabelecidos — limites que existem justamente para resistir às seduções do momento, sejam elas políticas, morais ou tecnológicas.
A tecnologia, assim como o poder, não é problemática por si. O problema surge quando se perde a consciência de que ambos precisam ser contidos. A ausência de limites não produz liberdade, mas desorientação. Do mesmo modo, a abdicação da interpretação não gera segurança, mas desloca o risco para zonas menos visíveis, onde o erro se torna mais difícil de identificar e corrigir.
Talvez seja justamente nesse ponto que o debate contemporâneo precise se concentrar. Não se trata de rejeitar a inovação, mas de reconhecer que nenhuma inovação substitui a necessidade de instituições que saibam dizer “não”. A maturidade jurídica não está em aderir a cada novo canto sedutor, mas em sustentar a rota traçada antes da tormenta.
Enquanto a decisão penal permanecer vinculada à ideia de que o intérprete deve responder por aquilo que decide — e não apenas reproduzir resultados técnicos — o Direito conservará sua função de contenção. Quando essa responsabilidade se perde, resta apenas a técnica algorítmica operando sem amarras. E, nesse cenário, não é a justiça que avança, mas o risco de que o poder, agora automatizado, deixe de reconhecer os próprios limites.
[1] STRECK, Lenio Luiz. Os campos minados da inteligência artificial. In: STRECK, Lenio. Robô não desce escada e trapezista não voa: os limites dos aprendizes de feiticeiro. São Paulo: Editora Contracorrente, 2025, item 3.7.
[2] STRECK, Lenio Luiz. O motim hermenêutico. Consultor Jurídico, 27 dez. 2018. Disponível em: conjur.com.br/2018-dez-27/senso-incomum-motim-hermeneutico-mitos-bom-mau-ativismo/
[3] STRECK, Lenio Luiz. Ensino jurídico e(m) crise: ensaio contra a simplificação do Direito. Capítulo II – A crise de paradigmas e o senso comum teórico dos juristas como horizonte de sentido da dogmática jurídica: quando as ficções da realidade se transformam na realidade das ficções. São Paulo: Editora Contracorrente, 2023
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login