A crescente adoção de sistemas automatizados na formulação de pareceres e decisões jurídicas levanta preocupações sobre a redução do Direito a um exercício estatístico, desprovido de interpretação humana e sensibilidade contextual. Essa tendência é impulsionada, ao menos em parte, pela popularização da chamada “inteligência artificial”1, especialmente em sua vertente generativa, que simula a linguagem humana com impressionante fluidez.

Mas a inteligência artificial não ameaça o Direito: ela o revela. Expõe contradições, excessos normativos, obsessões por controle e uma boa dose de previsibilidade. Mas também aponta caminhos: simplificação, acesso, eficiência. O que ela não oferece (e quiçá nunca ofereça) é juízo no sentido de bom senso.
O jurista do futuro não será apenas aquele que compreende os limites éticos da delegação decisória. Será também aquele que entende que códigos regulam. Como mostrou Lawrence Lessig em 19992, code is law: o código de programação regula comportamentos no ambiente digital assim como os códigos jurídicos (civil, comercial, processual) regulam condutas na sociedade. Ambos são linguagens normativas, com estruturas próprias, que moldam possibilidades e limites de ação.
Enquanto o codex jurídico se expressa por meio de normas interpretáveis, sujeitas à argumentação, contexto e ponderação, o código computacional impõe regras diretamente pela arquitetura dos sistemas, sem espaço para ambiguidade ou dissenso. Decide em silêncio, sem audiência, contraditório ou jurisdição.
A própria inteligência artificial é regulada por códigos: estruturas invisíveis que definem o que ela pode ou não fazer, como aprende, como decide. Por isso, o ideal de código aberto, também chamado de software livre3, não é apenas uma escolha técnica, mas uma exigência democrática. Sem transparência algorítmica, não há controle; sem um mínimo de controle não haverá justiça.
A expansão da inteligência artificial também impõe desafios urgentes à segurança e à privacidade. Sistemas automatizados operam sobre volumes massivos de dados pessoais, muitas vezes sensíveis, cuja coleta, armazenamento e processamento escapam à percepção dos usuários. O risco não está apenas no vazamento ou uso indevido dessas informações, mas na construção de perfis comportamentais que podem influenciar decisões judiciais, administrativas ou comerciais.
A opacidade algorítmica agrava esse cenário: sem transparência sobre os critérios utilizados, não há como garantir que os direitos fundamentais estejam sendo respeitados. O Direito, nesse contexto, não pode se limitar a reagir; precisa antecipar, proteger e assegurar que a dignidade humana não seja reduzida a um conjunto de métricas algorítmicas.
Como já alertava Amaro Moraes e Silva Neto em artigo de 20024, “as pessoas têm o direito de conhecer as estruturas dos programas que utilizam”, e esse direito é também uma forma de resistência ao poder invisível da automação.
Ignorar essa dimensão técnica é abdicar da capacidade de compreender e de contestar os novos mecanismos de poder que emergem da automação. E a IA intensifica ainda mais essa tendência.
Mas o risco não está apenas na tecnologia. Está na renúncia da responsabilidade humana de decidir, ponderar, escutar, julgar. Quando o jurista vira mero operador, o Direito se transforma em produto de cálculo probabilístico, e não em justiça.

A figura do juiz Proteus5, em ensaio de Cláudia Servilha Monteiro em 2004, expressa esse dilema: um modelo que integra sistemas especialistas com base argumentativa, mas que ainda depende da sensibilidade humana. Decidir é mais do que processar, é compreender.
Resistência e coragem
À medida que os sistemas evoluem, mais uma inquietação se impõe. Alguns teóricos chamam de singularidade, o ponto em que a IA geral ultrapassa nossa capacidade de controle e compreensão6. Se esse ponto for alcançado, o Direito corre o risco de se tornar senão irrelevante, apenas um subsistema dentro de uma lógica algorítmica maior.
E essa perspectiva exige energia, muita energia. Sistemas de IA geral demandam infraestrutura colossal, consumo desmedido e dependência de redes invisíveis. O custo não é apenas técnico: é ecológico, político, existencial. Estamos diante de uma escolha — avançar sem freios ou repensar os limites.
Quando a tecnologia ameaça ultrapassar não apenas nossas capacidades de controle, mas também os próprios fundamentos da experiência humana, um outro extremo surge como contrapeso: um “neoludismo”7, ou recusa consciente de nos tornarmos gradativamente seres híbridos compostos por elementos biológicos e componentes tecnológicos — ciborgues8.
Longe de ser enredo de ficção científica, essa postura pode representar um ato de resistência à desumanização, à opacidade algorítmica, à substituição do discernimento pelo cálculo.
Aliás, a necessidade de uma consciência tecnológica já foi apontada por Amaro Moraes em artigo de 20019, bem como a discussão, ainda de forma incipiente10, sobre o papel das máquinas no Direito não apenas como ferramentas, mas como fenômenos que exigem reflexão ética e institucional.
O que era tema de nicho, de especialistas, hoje é dilema civilizatório. Talvez seja esse o gesto necessário para preservar o que nos torna humanos e, portanto, capazes de fazer justiça.
O desafio, portanto, não é apenas técnico, mas também filosófico. Não basta regular a IA11; é preciso entender o que queremos preservar da experiência jurídica. A tecnologia nos obriga a revisitar os fundamentos: justiça, decisão, responsabilidade. E, sobretudo, humanidade.
A IA pode organizar dados, prever padrões, gerir processos. Mas não pode substituir o olhar que reconhece o outro, o gesto que pondera, a escuta que compreende. Julgar é humano, e continuará sendo, se quisermos que o Direito continue sendo justo.
O futuro não será escrito por máquinas, mas por juristas que souberem dialogar com elas sem qualquer grau de submissão. A IA pode ser ferramenta, mas nunca fundamento. O Direito que se rende à técnica perde sua alma. E sem alma, mais uma vez, não há justiça. Apenas uma fria eficiência.
Preservar o humano no Direito é mais do que uma escolha: é uma responsabilidade.
E talvez, em breve, seja também um ato de coragem.
Este artigo foi elaborado com o auxílio de uma inteligência artificial generativa, sob curadoria e supervisão cuidadosa do autor.
Notas de rodapé
1. Embora o termo “inteligência artificial” seja amplamente utilizado, trata-se de uma expressão que pode ser considerada controversa. A IA generativa não possui consciência, intenção ou compreensão; ela apenas modela padrões linguísticos com base em grandes volumes de dados. Sua “inteligência” é, na prática, uma simulação estatística da linguagem humana. Ou seja, é mais uma simulação de inteligência. Se os dados disponíveis forem superficiais ou tendenciosos, os resultados também o serão. Por isso, a curadoria humana e o pensamento crítico continuarão indispensáveis.
2. LESSIG, Lawrence. Code and Other Laws of Cyberspace. New York: Basic Books, 1999.
3. Vide decisão do STF na ADI 3059, de 9/4/2015, que tratou da obrigatoriedade de uso de software de código livre/aberto em órgãos públicos, com base nos princípios constitucionais de transparência, eficiência e economicidade. Para o Relator, Ministro Ayres Britto, “(…) existe, sim, um atributo do software “livre” que justifica a preferência estabelecia em lei: a aquisição do conhecimento. Quando a Administração Pública visa a adquirir um programa de computador, a proposta mais vantajosa será, quase sempre, aquela que lhe permita não somente usar o software, como também conhecer e dominar sua tecnologia. Isto tanto para viabilizar futuras adaptações e aperfeiçoamentos quanto para avaliar a real segurança das informações públicas”. Íntegra disponível aqui
4. SILVA NETO, Amaro Moraes e. “¡Hackear é legal!”. In: KAMINSKI, Omar (org.). Internet Legal: O Direito na Tecnologia da Informação. Curitiba: 2003. p. 105–108.
5. MONTEIRO, Cláudia Servilha. O juiz Proteus: decisões judiciais e sistemas especialistas legais de base argumentativa. In: Temas de Filosofia do Direito: decisão, argumentação e ensino. Florianópolis: Fundação Boiteux, 2004.
6. O termo “singularidade” foi inicialmente associado à tecnologia por John von Neumann, citado por Stanisław Ulam em 1958. Irving John Good, em 1965, especulou sobre a criação de uma “máquina ultrainteligente”. Ray Kurzweil popularizou o conceito em The Singularity is Near (2005), prevendo sua chegada por volta de 2045.
7. O termo “neoludismo” foi cunhado e popularizado pelo autor e ativista Chellis Glendinning em 1990, quando ele publicou o texto Notes Toward a Neo-Luddite Manifesto na revista Utne Reader, questionando o avanço desenfreado da tecnologia.
8. O termo “ciborgue” foi criado em 1960 por Manfred Clynes e Nathan Kline, como junção de cybernetic e organism.
9. SILVA NETO, Amaro Moraes e. “Por uma Consciência Tecnológica”. Consultor Jurídico, 3 dez. 2001. Disponível aqui
10. KAMINSKI, Omar. A Informática Jurídica, a Juscibernética e a Arte de Governar. Consultor Jurídico, 17 jul. 2002. Disponível aqui
11. Aprovado pelo Senado em dezembro de 2024, o PL 2.338/2023 estabelece diretrizes para o desenvolvimento e uso ético da IA no país. O texto está em análise na Câmara dos Deputados e incorpora sugestões de outros projetos, como o PL 21/2020, e sua tramitação pode ser acompanhada aqui
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login