Pesquisar
Diário de Classe

A IA minuta: mas quem decide?

Em junho deste ano, o Tribunal de Justiça do Rio Grande do Sul (TJ-RS) divulgou o lançamento de um sistema de plataformas de inteligência artificial generativa.  Desenvolvido pela startup jAI em parceria com a AWS, o Conexão Gaia — cujo nome faz referência à mãe de Themis, deusa da Justiça na mitologia grega — foi elaborado para oferecer um conjunto de soluções de inteligência artificial a diferentes públicos.

A “Gaia Explica Aí, Tchê”, por exemplo, é uma tecnologia voltada ao cidadão, que busca facilitar a compreensão das decisões judiciais. Já a “Gaia Petição Inicial” oferece auxílio a advogados e advogadas na distribuição de petições. A grande inovação, no entanto, é a “Gaia Minuta”, um sistema de inteligência artificial que elabora decisões judiciais.

Segundo o Tribunal de Justiça, a Gaia Minuta não é um mero sistema de automação das decisões, ela vai além: “entende o caso e escreve conforme o estilo do magistrado”. A IA (i) examina o conteúdo processual disponível; (ii) identifica padrões de linguagem, estrutura e fundamentos jurídicos de modelos fornecidos; e (iii) produz uma minuta com base nas diretrizes fornecidas, respeitando estilo, conteúdo e requisitos do caso.

Após quatro meses do lançamento, mais de 700 mil minutas de decisões foram geradas pela plataforma de inteligência artificial [1]. A promessa institucional é de maior eficiência e celeridade na prestação jurisdicional, em consonância com as diretrizes do CNJ sobre ética, transparência e governança na produção e no uso de inteligência artificial no Poder Judiciário.

E o dever de fundamentação das decisões judiciais?

A plataforma funciona a partir da criação de prompts — isto é, de comandos — elaborados por magistrados e servidores. Com base em apenas uma instrução, o sistema sugere uma minuta de decisão. O “Guia de Uso do Gaia Minuta” indica três níveis possíveis de comandos: (1) prompt simples, uma instrução direta, de poucos caracteres, sem detalhes; (2) prompt detalhado, que inclui o resultado esperado e indica pontos-chave, aumentando consideravelmente os caracteres; e (3) prompt estruturado, que define uma persona, uma tarefa e regras, ultrapassando os 5.000 caracteres.

A grande pergunta, contudo, é: esse tipo de decisão é compatível com as exigências de fundamentação garantidas constitucionalmente?

Ora, interpretação judicial é algo sério. Como já disse Cover, a “interpretação jurídica ocorre em um campo de dor e morte”. Diferentemente da interpretação literária ou da filosofia política, a interpretação jurídica transforma a compreensão de um texto político em modos de ação institucionais, realizando futuros normativos através de práticas de violência coletiva. Uma juíza articula seu entendimento de um texto e, como consequência, alguém perde seus bens, a guarda de um filho ou, até mesmo, a própria liberdade [2].

A Gaia Minuta, no entanto, possibilita a elaboração de decisões judiciais a partir de comandos tão vagos quanto “decida conforme a lei”. Essas minutas de despachos, decisões e sentenças podem ser elaboradas com base nesses prompts tanto em ações massificadas — como demandas bancárias e execuções fiscais —, quanto em ações penais. Não há qualquer limitação do uso da Gaia Minuta relativamente a classe de processos ou tipos de decisões.

Ou seja, a plataforma disponibilizada pelo TJ-RS permite que o juiz delegue à inteligência artificial a tarefa de interpretação do direito [3], moldando a decisão sobre a destinação de recursos públicos, sobre a propriedade e a até mesmo sobre inocência das pessoas.

Ocorre que, apesar de ter a capacidade de coletar, avaliar e processar um imenso volume e variedade de dados, a “inteligência artificial” não possui a capacidade de interpretar [4]. A Gaia, assim como qualquer outro sistema de inteligência artificial pautado em aprendizado de linguagem (Large Language Models — LLMs), apenas processa e reproduz textos [5], a partir de algoritmos — que, nesse caso, sequer são públicos!

Há, portanto, um grave déficit de legitimidade nessas decisões, na medida em que transfere a interpretação judicial a um sistema que não compreende os fatos, não interpreta normas e não assume responsabilidade por seus resultados. A opacidade dos algoritmos, somada à ausência de critérios claros de controle e participação das partes, agrava ainda mais a situação, pois esvazia a dimensão substantiva de contraditório que deve orientar a jurisdição.

E se o juiz ‘primeiro decide e depois a Gaia justifica’?

Esse problema tampouco é solucionado com a elaboração de comandos mais detalhados ou estruturados. Instruir o programa com prompts de procedência ou improcedência da ação, pedir para o sistema “confrontar os fatos provados exclusivamente com as normas materiais e os princípios de direito aplicáveis” ou construir uma persona de juiz — isto é, pedir para a IA atuar como um “juiz de Direito, um magistrado experiente e técnico, especializado na área jurídica do caso em análise” –, tal qual sugere o “modelo de prompt avançado” disponibilizado pelo TJ-RS, não é suficiente para superar o déficit de legitimidade dessas decisões.

Afinal, excetuada a hipótese de que o prompt resulte da análise de todas as alegações, provas e normas relevantes — caso no qual, aparentemente, não existiria qualquer ganho de eficiência e celeridade na delegação da elaboração da decisão à IA —, esse tipo de solução esbarra no problema da discricionariedade.

Isso porque, a partir do giro ontológico-linguístico, a clássica concepção da interpretação como um ato realizado em etapas (subtilitas intelligendi, subtitas explicandi, subtilitas applicandi — isto é, primeiro, se interpreta; em seguida, se aplica; e, por fim, se fundamenta) é superada. Como incansavelmente tem demonstrado o professor Lenio Streck, não é possível alcançar o outro lado do “abismo gnosiológico” que separa o homem das coisas e da compreensão acerca de como elas são e só depois construirmos a ponte pela qual “já teríamos passado” [6].

O juiz, portanto, não decide para depois fundamentar. Pelo contrário, o juiz só decide porque já encontrou o fundamento. Por isso, inclusive, no marco da Crítica Hermenêutica do Direito, o dever de fundamentação das decisões judiciais (artigo 93, IX, CR) é compreendido como um direito fundamental [7].

O cidadão, então, tem o direito de que o juiz explicite as condições pelas quais compreendeu – enfrentando todos os argumentos deduzidos pelas partes. Trata-se, sobretudo, de um dever de accountability do Poder Judiciário, que deve permitir que as partes (e, por que não, a sociedade) participem da construção e controlem os resultados das decisões judiciais.

Mas, mais do que transparência sobre as razões e influência nos resultados das decisões judiciais, no paradigma contemporâneo, o cidadão tem o direito de que as decisões sejam justificadas a partir de fundamentos jurídicos. Afinal, se o Direito produzido democraticamente institucionaliza as escolhas políticas fundamentais da sociedade — atribuindo-lhes normatividade —, os juízes não podem substituir esse poder constituinte e decidir com base em sua própria vontade.

A fundamentação não é, portanto, ornamento. A fundamentação, ao explicitar a compreensão do julgador, permite o controle intersubjetivo da decisão e a análise da conformidade da decisão com o Direito.

Não obstante, ao conceder aos magistrados a possibilidade de justificação das decisões de forma apartada do processo decisório, a Gaia se converte num mecanismo exterior pelo qual se encobre o verdadeiro raciocínio estruturante da compreensão [8]. A vontade do julgador substitui a legislação democraticamente produzida e as vinculações jurídico-constitucionais, amoldando-se às estruturas de uma justificativa criada (ou melhor, compilada) pela inteligência artificial [9].

Isso fica claro, por exemplo, pela vedação de análise de jurisprudência. O TJ-RS recomenda que, para evitar alucinações — isto é, para evitar que o sistema forneça dados incorretos —, a GAIA não poderá utilizar precedentes. Ou seja, a parte invoca, na forma prevista no código (artigo 489 CPC ou artigo 315 CPP), uma decisão, tese ou súmula que lhe dá razão. Pela lei, caberia ao julgador aplicá-lo ou, então, dizer que ele não tem razão (§1º, inciso VI, CPC ou §2º, inciso VI, CPP), realizando a devida distinção. No entanto, se há um prompt indicando um resultado adverso, o que faz o Gaia? Ignora o que foi alegado.

Logo, percebe-se que tanto as minutas elaboradas a partir de prompts simples, quanto as minutas elaboradas a partir de prompts detalhados e estruturados obnubilam o locus onde realmente acontece a decisão: nas primeiras, nos algoritmos; nas demais, na subjetividade (assujeitadora) do julgador. Em nenhum dos casos, no entanto, o Direito é interpretado a partir do locus verdadeiramente democrático: a Constituição.

Essa e outras problematizações envolvendo os riscos da adoção desenfreada de sistemas de inteligência artificial no Direito são enfrentados no recém-lançado livro do professor Lenio Streck, “Robô não desce escada e trapezista não voa: os limites dos aprendizes de feiticeiro”, publicado pela Editora Contracorrente.

 


[1] Aqui

[2] COVER, Robert. Violence and the Word. Yale Law Journal, v. 95, n. 8, pp. 1601-1629, 1986.

[3] Essa ampla utilização de sistemas de inteligência artificial ignora, inclusive, a classificação de risco da conhecida Resolução nº 615/2025 do CNJ. Apesar de o TJ-RS reivindicar a conformidade do Conexão GAIA com as diretrizes da resolução, o CNJ classifica como de alto risco o desenvolvimento e o uso de soluções baseadas em IA destinadas à “aferição da adequação dos meios de prova e a sua valoração nos processos de jurisdição contenciosa” (AR2), à “averiguação, valoração, tipificação e a interpretação de fatos como sendo crimes” (AR3), bem como à “formulação de juízos conclusivos sobre a aplicação da norma jurídica ou precedentes a um conjunto determinado de fatos concretos” (AR4).

[4] Nem mesmo o termo “inteligência artificial” está imune a controvérsias. Afinal, há fortes críticas à incapacidade desses modelos de apreender e replicar a complexidade humana. Essa posição foi sarcasticamente exprimida por Miguel Nicolelis: um computador digital não sobreviveria no estádio em uma noite de jogo do Palmeiras. O neurocientista destaca que “não existe fluxo de S-info [modelo binário de informação descrito por Shannon], algoritmo matemático, computador digital ou qualquer forma de inteligência artificial que se aproxime de reproduzir ou emular aquilo que cada um de nós experimenta cotidianamente na nossa mente”. Ou seja, para Nicolelis, esses sistemas são insuficientes para exprimir a generalidade e complexidade de toda a capacidade do cérebro humano – de armazenar, experimentar e expressar. Cf. NICOLELIS, Miguel. O verdadeiro criador de tudo: Como o cérebro humano esculpiu o universo como nós o conhecemos. São Paulo: Planeta, 2020.

[5] Sobre as limitações da inteligência artificial no direito a partir de uma perspectiva hermenência, ver aqui

[6] STRECK, Lenio Luiz. Verdade e Consenso: Constituição, hermenêutica e teorias discursivas. 4. ed. São Paulo: Saraiva, 2011, p. 406.

[7] Ver, por todos, o verbete “Resposta adequada à constituição (resposta correta), em: STRECK, Lenio Luiz. Dicionário de Hermenêutica: 50 verbetes fundamentais da Teoria do Direito à luz da Crítica Hermenêutica do Direito. 2. ed. Belo Horizonte: Casa do Direito, 2020.

[8] Essa questão, na verdade, atravessa todas as discussões sobre paradigmas filosóficos no direito, como os problemas dos métodos de interpretação e da ponderação. Sobre isso, ver: STRECK, Lenio Luiz. Verdade e Consenso, 2011, p. 233.

[9] Robô Não Desce Escada e Trapezista Não Voa – Os Limites dos Aprendizes de Feiticeiro.

Pedro Zanatta Silveira Borges

é mestrando em Direito pela Unisinos, membro do Dasein (Núcleo de Estudos Hermenêuticos) e advogado no Streck & Trindade Advogados Associados.

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.