Pesquisar
Opinião

IA generativa no Judiciário: como evitar muito gasto e pouco resultado

A discussão sobre a adoção de inteligência artificial (IA) no setor público e, em especial, no Judiciário, tem sido marcada, de um lado, por um salto preocupante ao desconhecido, apontando e apostando nas grandes benesses de (supostos) ganhos de produtividade e, de outro, por uma ênfase quase exclusiva nos riscos e limitações tecnológicas, como o viés do modelo algorítmico [1], as chamadas “alucinações” (outputs falsos ou inventados) [2], o desalinhamento entre objetivos humanos e respostas da máquina, o risco de comportamentos estratégicos ocultos (scheming)[3] e as vulnerabilidades decorrentes de prompt injections [4].

Embora essas preocupações sejam reais e já reconhecidas em múltiplas pesquisas, chama a atenção a relativa ausência de preocupação com a dimensão institucional da incorporação dessas tecnologias. É nesse ponto que reside o maior desafio para o Judiciário: a implementação acrítica da IA sem atenção ao design organizacional pode levar à perda de legitimidade democrática e de confiança pública. A essa lista soma-se ainda o problema do shadow AI: o uso disseminado e informal de ferramentas como ChatGPT e congêneres por servidores e profissionais em suas rotinas de trabalho, sem autorização institucional ou mecanismos de controle, o que demonstra tanto a atratividade quanto o risco de um cenário em que a inovação tecnológica ocorre à margem da governança oficial [5][6].

A implementação de sistemas de IA em instituições públicas, especialmente no Judiciário, apresenta desafios que extrapolam a dimensão tecnológica e atingem diretamente a esfera institucional. Dois conjuntos de evidências recentes ajudam a compreender esses obstáculos: de um lado, os dados levantados pelo relatório The GenAI Divide: State of AI in Business 2025, elaborado no âmbito do MIT Project NANDA [7], que mostra que 95% dos pilotos de IA generativa fracassaram em gerar valor mensurável [8]. De outro, a reflexão teórica desenvolvida por Chris Schmitz e Joanna Bryson [9], que aponta o risco de erosão da legitimidade democrática se a integração da IA não for guiada por um design institucional adequado [10]. Colocados em diálogo, esses dois diagnósticos revelam que a dificuldade central da incorporação da IA não reside na tecnologia em si, mas na ausência de estruturas organizacionais e institucionais capazes de absorver, supervisionar e direcionar seu uso de forma consistente e legítima.

Apesar de não podermos aceitar acriticamente os achados das pesquisas, nem transpor automaticamente os resultados do campo privado para o público, ambos nos convidam a reflexões relevantes.

Muito investimento, pouco resultado

O relatório corporativo é contundente ao mostrar que, apesar de investimentos estimados entre 30 e 40 bilhões de dólares, apenas 5% das iniciativas empresariais conseguiram transformar pilotos de IA em soluções efetivas, fenômeno denominado GenAI Divide [11]. Trata-se de uma divisão entre a adoção massiva de ferramentas de uso geral, como ChatGPT, Copilot ou congêneres, e o reduzido número de casos em que a IA de fato gerou impacto financeiro e operacional.

O dado mais revelador é que a falha não decorre da qualidade dos modelos nem de entraves regulatórios, mas sim de uma “lacuna de aprendizagem” organizacional: a incapacidade das instituições de adaptar processos, cultura, governança e papéis profissionais para incorporar a tecnologia de maneira sustentável [12]. Em outras palavras, a ausência de (re)desenho institucional converte a promessa da IA em frustração, criando o que o estudo chama de “provas de conceito de vitrine”: projetos desconectados da realidade dos sistemas e sem dono institucional claro, fadados ao esquecimento. Muita propaganda institucional, com baixos resultados e escalabilidade.

Spacca

Spacca

A transposição desse diagnóstico para o Judiciário é imediata. Também aqui há uma pressão pela adoção de IA, vista por muitos como solução mágica para a morosidade processual, o excesso de demandas repetitivas e a sobrecarga de magistrados e servidores. Entretanto, se não houver um redesenho organizacional profundo, corre-se o risco de reproduzir no setor público a mesma assimetria evidenciada nas empresas: alto gasto, baixa efetividade e iniciativas que não passam da fase de laboratório. É precisamente o que Schmitz e Bryson alertam com a noção de erosão ética (ethics sinks): quando estruturas burocráticas absorvem a tecnologia sem um marco institucional que preserve a centralidade da responsabilidade humana, a consequência é a diluição da imputabilidade e, por conseguinte, da legitimidade democrática [13].

Risco de enfraquecimento de estabilidade institucional

No caso do Judiciário, esse risco é particularmente sensível. A burocracia judicial tem dupla função: assegurar a legitimidade, isto é, a aplicação fiel das normas democraticamente estabelecidas, e exercer a gestão responsável (stewardship), preservando a estabilidade institucional de longo prazo.

A introdução da IA pode enfraquecer ambas se for conduzida apenas sob a lógica da eficiência ou da inovação tecnológica. Ferramentas mal implementadas podem criar zonas de opacidade decisória, em que nem magistrados nem servidores conseguem explicar ou auditar as razões de um determinado resultado. O problema não é técnico, mas institucional: sem design adequado, a IA se torna uma camada de complexidade que dissolve a responsabilidade individual, produzindo o efeito de zonas de amortecimento moral (moral crumple zones), em que o humano é formalmente responsável por decisões que de fato não domina [14].

O framework de agência moral propõe três diretrizes que são cruciais para evitar esse colapso da responsabilidade. Primeiro, a manutenção de linhas humanas claras de responsabilidade: nenhuma decisão judicial pode ser atribuída a um algoritmo; sempre deve haver um juiz ou servidor identificável e legalmente responsável. E, aqui, pontue-se, a responsabilidade não se resumirá à verificação superficial e chancela com uma assinatura. Se trata do controle completo do direcionamento das respostas maquinicas e na conferência integral de suas respostas probabilísticas, sejam em aplicações gerais como um ChatGPT, sejam em aplicações customizadas pelo Judiciário [15], mediante salvaguardas, RAGs etc. Segundo, a exigência de verificabilidade funcional: mesmo que os sistemas de IA sejam complexos, seus resultados precisam ser compreensíveis, auditáveis [16] e passíveis de contestação, preservando o modelo constitucional de processo [17]. Terceiro, a necessidade de que a IA seja introduzida apenas onde não comprometa a legitimidade nem a função estabilizadora da burocracia, ou seja, em usos que reforcem a racionalidade e a transparência, mas sem reduzir a pluralidade de visões, criando uma monocultura decisória, nem concentrar poder excessivo em sistemas automatizados [18].

Essas diretrizes dialogam diretamente com os achados do relatório do MIT. Se nas corporações os projetos fracassaram por falta de integração a processos, ausência de métricas de valor e descompasso entre tecnologia e cultura organizacional, no Judiciário o risco é ainda mais grave: sem redesenho de processos, governança algorítmica clara e capacitação (letramento) dos servidores e servidores, a IA não apenas deixará de gerar ganhos de eficiência, como poderá corroer a confiança pública ⁹. A legitimidade judicial não se mede  a demonstração de resultados (P&L), mas em confiança social e em aderência a princípios constitucionais como legalidade, publicidade, moralidade e devido processo legal. Uma IA que acelera decisões, mas obscurece seus fundamentos gera o mesmo tipo de “divisão” apontada no setor privado: uma assimetria entre adoção aparente e transformação efetiva, só que com consequências potencialmente danosas para o Estado de direito.

IA exige mudança de capacitação e responsabilidades

Além disso, os dois estudos convergem em um ponto essencial: a implementação da IA exige mudança de papéis e capacitação em larga escala. O relatório do MIT mostra que, sem redesenho de responsabilidades e sem gestão de mudança, os projetos ficam presos em silos organizacionais, sem donos claros e sem escala [19]. No Judiciário, isso significa que magistrados, assessores e servidores precisam ser treinados não apenas para usar as ferramentas, mas para exercer supervisão crítica [20], avaliar respostas e assumir a responsabilidade por sua incorporação nas rotinas processuais. A capacitação em literacia digital e algorítmica não é acessório, mas condição de legitimidade.

Outro ponto de convergência é a exigência de plataformas de dados confiáveis e integração com sistemas centrais. No setor privado, a ausência desses fundamentos mantém iniciativas em estado experimental, elevando custos sem retorno proporcional. No Judiciário, sem bases de dados estruturadas, interoperabilidade entre tribunais e padrões claros de governança da informação, qualquer solução de IA poderá se tornar, no máximo, uma prova de conceito estéril, incapaz de escalar com segurança e confiabilidade. Isso é ainda mais urgente diante necessidade de proteção dos dados e da necessidade se levar a sério a Resolução CNJ 615/2024), que impõem parâmetros e supervisão humana para o uso de IA. Os avanços do Datajud e do Codex (entre outras) ainda não permitiram um dimensionamento de um Datalake “confiável” no Judiciário pátrio, quiçá um ambiente onde se possa extrair conhecimento estruturado (garimpar ouro) dos dados brutos que vão gerar decisões de negócio inteligentes (sistema datadriven) [21].

A partir dessas evidências, torna-se claro que o desafio central não é de inovação técnica, mas de institucionalidade. Assim como as empresas precisam trocar o “POC-centrismo” por produtos de IA com dono, métricas e integração real, o Judiciário deve abandonar o “fetichismo da inovação” e adotar uma agenda de transformação institucional séria. Isso significa implementar governança algorítmica com escopo definido, criar estruturas de auditoria independentes, garantir transparência para a sociedade e, sobretudo, redesenhar fluxos processuais para que a IA seja um músculo que amplifica a agência humana, e não uma sombra que dissolve a responsabilidade.

Falha na integração entre tecnologia ao propósito da organização

Em síntese, tanto o fracasso empresarial registrado pelo State of AI in Business 2025 quanto as advertências normativas de Schmitz e Bryson convergem para a mesma conclusão: a adoção da IA não falha por limitações tecnológicas, mas por ausência de desenho institucional capaz de integrar a tecnologia ao propósito central da organização. No caso do Judiciário, esse propósito é a realização dos direitos fundamentais em conformidade com a Constituição. A IA pode contribuir para esse objetivo se for implementada de modo legítimo, transparente e responsável, reforçando a confiança social e a estabilidade institucional.

Se, ao contrário, for usada como ferramenta de vitrine, sem redesenho de processos, sem “donos” claros e sem accountability, correrá o risco de reproduzir no setor público a mesma assimetria que hoje marca o setor privado: muito investimento, pouco valor e, pior, perda de legitimidade.

Por fim, não podemos esquecer de nosso dilema: implementar IA no Judiciário sem o devido redesenho institucional, correndo o risco de ineficiência e perda de legitimidade, ou aguardar um redimensionamento que ainda se encontra em estágio embrionário, abrindo mão de inúmeros ganhos potenciais de seu uso. A resposta talvez não esteja em uma escolha excludente, mas em uma estratégia gradual: iniciar desde já esse processo de redimensionamento, acompanhando a adoção tecnológica com um programa consistente de letramento digital, bem como com investimentos sólidos em supervisão e governança. Dessa forma, evita-se tanto a paralisia institucional quanto a adesão irrefletida a soluções de vitrine, construindo as bases para uma integração legítima, eficaz e socialmente responsável da IA no sistema de justiça.

 


[1] NUNES, Dierle; LUD, Natanael; PEDRON, Flávio. Desconfiando da imparcialidade dos sujeitos processuais um estudo sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. Salvador: JusPodivm, 2018/2022. NUNES, Dierle; MARQUES, Ana Luiza. Inteligência artificial e direito processual: vieses algorítmicos e os riscos de atribuição de função decisória às máquinas. RePro. v. 285/2018, p. 421 – 447.

[2] NUNES, Dierle.  Precisamos falar do treinamento para o uso de inteligência artificial no direito. https://www.conjur.com.br/2025-mai-24/precisamos-falar-do-treinamento-para-o-uso-de-inteligencia-artificial-no-direito/

[3] MEINKE, Alexander; SCHOEN, Bronson; SCHEURER, Jérémy; BALESNI, Mikita; SHAH, Rusheb; HOBBHAHN, Marius. Frontier Models are Capable of In-context Scheming. Apollo Research, 2025. https://arxiv.org/abs/2412.04984

[4] NUNES, Dierle. Decisões à cegas: como as IAs podem ser manipuladas sem você saber. https://www.conjur.com.br/2025-jul-18/decisoes-a-cegas-como-as-ias-podem-ser-manipuladas-sem-voce-saber/ NUNES, Dierle. Quando a IA ‘mente’ no tribunal: limitações matemáticas que ameaçam a Justiça. https://www.conjur.com.br/2025-ago-20/quando-a-ia-mente-no-tribunal-as-limitacoes-matematicas-que-ameacam-a-justica/

[5] CNJ. O uso da inteligência artificial generativa no Poder Judiciário brasileiro: relatório de pesquisa, 2024. 111.

[6] CHALLAPALLY, Aditya; PEASE, Chris; RASKAR, Ramesh; CHARI, Pradyumna. The GenAI Divide: State of AI in Business 2025 Report. MIT NANDA, jul. 2025. p. 8.  v0.1_State_of_AI_in_Business_2025_Report.pdf

[7] Cit.

[8]  Cit. p. 3.

[9] SCHMITZ, Chris; BRYSON, Joanna. A moral agency framework for legitimate integration of AI in bureaucracies. Rochester, 2024. p. 1-2. arXiv:2508.08231 

[10] Cit.

[11] CHALLAPALLY, et al. 2025.

[12] Cit. p. 21.

[13]SCHMITZ; BRYSON, 2024, p. 4-5.

[14] SCHMITZ; BRYSON, 2024. p. 7

[15] NUNES, Dierle. https://www.conjur.com.br/2025-mar-10/ia-generativa-no-judiciario-brasileiro-realidade-e-alguns-desafios/

[16] MORATO, Otavio; NUNES, Dierle. Inteligência artificial: o desafio da explicabilidade. Juspodivm, 2025.

[17] NUNES, Dierle. Explorando as possibilidades de uso da IA para o apoio à decisão no Direito https://www.migalhas.com.br/depeso/431681/possibilidades-de-uso-da-ia-para-o-apoio-a-decisao-no-direito

[18] SCHMITZ; BRYSON, 2024. p. 12-15

[19]CHALLAPALLY, et. al, p. 14-16.

[20] NUNES, Dierle. A supervisão humana das decisões de inteligência artificial reduz os riscos? https://www.conjur.com.br/2021-jun-25/nunes-supervisao-humana-decisoes-ia-reduz-riscos/

[21] NUNES, Dierle. IA, tecnologias e devido processo: por uma Justiça 5.0 centrado nas pessoas através de uma abordagem orientado por dados. Repro. v. 356. 2024. https://www.academia.edu/124442567/IA_TECNOLOGIAS_E_DEVIDO_PROCESSO_POR_UMA_JUSTI%C3%87A_5_0_CENTRADA_NAS_PESSOAS_MEDIANTE_UMA_ABORDAGEM_DATA_DRIVEN

Dierle Nunes

é professor da UFMG e da PUC-Minas, membro honorário da Associação Iberoamericana de Direito e Inteligência Artificial, diretor do Instituto Direito e Inteligência Artificial (Ideia) e doutor em Direito pela PUC-Minas/Universitá degli Studi di Roma "La Sapienza".

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.