A crescente adoção da inteligência artificial tem suscitado debates regulatórios importantes no Brasil, de modo a garantir o seu uso confiável e seguro. No Senado, foi aprovado em dezembro de 2024 o PL 2.338, sob relatoria do senador Eduardo Gomes e de autoria do então presidente Rodrigo Pacheco, que de forma inovadora busca incentivar o desenvolvimento e uso da IA no Brasil, ao mesmo tempo em que prevê a garantia dos direitos fundamentais. Para além do debate de uma legislação geral e abrangente, têm sido debatidas também regulamentações setoriais e específicas para a inteligência artificial.

No Judiciário brasileiro, o uso de tecnologias já marca uma nova era para a administração da justiça. O Conselho Nacional de Justiça (CNJ) tem se esforçado para regular essas inovações tecnológicas, conduzindo levantamentos sobre como os Tribunais estão utilizando essas ferramentas e estabelecendo diretrizes para garantir que seu uso seja seguro, ético e transparente. Tais iniciativas culminaram, recentemente, na aprovação da Resolução CNJ nº 615 de 2025, publicada em 14 de março de 2025 [1], que alterou substancialmente o texto da Resolução CNJ nº 332 de 2020 e a revogou [2].
Atualmente, encontram-se sob análise da Justiça brasileira espantosos 80 milhões de processos, conforme destacou ministro Luís Roberto Barroso na sessão de abertura do Ano Judiciário [3]. Nesse contexto, o uso de IA pelos Tribunais, incluindo magistrados e servidores, é apresentado como uma solução para o aumento da eficiência de seus serviços.
Entretanto, a sua aplicação está associada a diversos riscos, tais como opacidade, discriminação e aumento de incidentes de segurança, conforme já largamente documentado na literatura jurídica. Diante disso, questiona-se: como alcançar maior eficiência dos serviços judiciais por meio da IA sem comprometer os princípios fundamentais que regem o Poder Judiciário? Além disso, quais são balizas que orientam o desenvolvimento e uso de IA, garantindo que esse processo ocorra de forma segura para os cidadãos?
Tais questionamentos evidenciam o grande desafio contemporâneo do Poder Judiciário: como garantir os valores fundamentais da justiça em um mundo digital no qual a produção e reprodução do direito se dão de formas muito diferentes das tradicionais.
É preciso, nesse novo contexto, garantir a imparcialidade e a independência do Judiciário, bem como proteger direitos processuais fundamentais dos jurisdicionados. Isso significa que as mudanças advindas do uso da IA no sistema judicial devem ser impulsionadas pelos próprios tribunais, com base nos valores essenciais da justiça, e não motivadas meramente pela economia de mercado digital. [4] Magistrados e servidores do Poder Judiciário devem aprender como podem contribuir para o desenvolvimento justo da IA, bem como monitorar continuamente sua conformidade com os direitos humanos.
Com base nos casos apresentados, pode-se perceber que a implementação de tecnologias de IA no Judiciário, seja para a seleção de processos ou o tratamento de dados, deve estar alinhada aos direitos fundamentais dos cidadãos, aos princípios da justiça de cada país, ao treinamento de membros do Judiciário e à gestão de dados adequada no contexto de seu tratamento.
Minuta de Resolução do CNJ e os caminhos para uma IA ética no Judiciário

A minuta de resolução baseou-se em um amplo debate promovido pelo Grupo de Trabalho do CNJ, presidido pelo então conselheiro Bandeira de Mello, bem como em pesquisas sobre o uso de IA pelo Judiciário, realizadas para o referido GT, como a Pesquisa “Mapeando riscos da IA no Poder Judiciário Brasileiro” realizada pelo Laboratório de Governança e Regulação de Inteligência Artificial (LIA) do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) [5].
Ademais, o CNJ realizou uma pesquisa para coletar informações sobre o uso da inteligência artificial generativa pelos Magistrados e servidores do Poder Judiciário, cujos resultados foram publicados no relatório “O uso da Inteligência Artificial Generativa no Poder Judiciário Brasileiro” [6].
Destacam-se os seguintes resultados dessa pesquisa:
- Quase metade do total de Magistrados (49,4%) e servidores (49,5%) afirmou que utiliza a IA generativa;
- A frequência de uso das ferramentas pelos membros do Judiciário entre 75% e 80% considerada rara ou eventual;
- As ferramentas mais utilizadas pelos membros do Judiciário revelaram-se ser a Open AI (ChatGPT), Microsoft 365 (Copilot) e Google AI (Gemini).
Com o objetivo de regulamentar o desenvolvimento e uso da IA no judiciário, o CNJ instituiu o Grupo de Trabalho, para a elaboração de minuta de resolução [7] responsável por estabelecer diretrizes e gerar maior eficácia material para o desenvolvimento, utilização e governança de soluções desenvolvidas com recursos de Inteligência Artificial no Poder Judiciário.
A regulação da IA pelo CNJ visa enfrentar os maiores riscos relativos ao uso da IA pelo Poder Judiciário:
- A violação de dados pessoais dos jurisdicionados [8], visto que o tratamento de suas informações deve ser feito adequadamente pelas ferramentas de IA;
- As ameaças à segurança dos dados de agentes econômicos, principalmente as relativas à exploração indevida, por parte da IA, de informações privilegiadas [9] de negócios;
- A publicização de dados pessoais que tramitam em sigilo no Judiciário, caso as novas ferramentas não possuam adequação suficiente para garantir a granularização de acesso [10]; e
- O cruzamento das bases de dados judiciais com bases internacionais, sem autorização prévia, visto que muitas ferramentas são originárias de outros países.
O CNJ, a fim de minimizar tais riscos, aprovou nova regulamentação, a Resolução CNJ nº 615 de 2025, que alterou substancialmente o texto da Resolução CNJ nº 332 de 2020, cuja abordagem era majoritariamente principiológica. Abaixo, as principais medidas aprovadas pelo Conselho:
- Mecanismos de curadoria e monitoramento contínuos: nenhuma decisão judicial pode ser tomada exclusivamente por IA, devendo ser observados pelos tribunais mecanismos de curadoria e monitoramento contínuos, a fim de garantir que as soluções de IA estejam em conformidade com os direitos fundamentais.
- Classificação de IA baseada em riscos: avaliação de soluções de IA para definição de graus de risco, baseados em critérios específicos, como o potencial impacto nos direitos fundamentais, a complexidade do modelo, a sua sustentabilidade financeira, os usos pretendidos e potenciais, e a quantidade de dados sensíveis utilizados. As classificações de:
- alto risco devem ser submetidas a processos regulares de auditoria e monitoramento contínuo para supervisionar seu uso e mitigar potenciais riscos; e
- baixo risco devem ser monitoradas e revisadas periodicamente, para assegurar que permanecem dentro dos parâmetros de menor risco.
- Proibição de uso de IA para as finalidades específicas de:
- geração de dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão;
- valoração de traços da personalidade, características ou comportamentos de pessoas naturais, para fins de avaliar ou prever o cometimento de crimes ou a probabilidade de reiteração delitiva;
- classificação de pessoas naturais, com base no seu comportamento ou situação social ou ainda em atributos da sua personalidade;
- identificação e a autenticação de padrões biométricos para o reconhecimento de emoções.
- Limitações ao uso de IA Generativa: preferência aos modelos de ferramentas de contratação corporativa, havendo limites relevantes para o uso privado pelos Magistrados e servidores, tais como a vedação para uso de alto risco ou risco excessivo e a vinculação da realização de treinamento de pessoal ao uso das soluções de IA.
- Inclusão de diretrizes de governança e auditoria para monitoramento da IA: os tribunais devem estabelecer processos internos aptos a garantir a segurança dos sistemas de inteligência artificial, a fim de evitar erros e vieses discriminatórios garantindo transparência para o controle social e regulatório;
- Criação do Comitê Nacional de Inteligência Artificial do Judiciário: composição plural, que tem por finalidade auxiliar o CNJ na implementação dos normativos de IA, sempre mediante diálogo com os tribunais e a sociedade civil;
- Promoção da transparência: indicadores claros e relatórios de impacto públicos, que informem o uso dessas soluções de maneira compreensível e em linguagem simples, garantindo que os jurisdicionados tenham ciência do uso de IA.
- Previsão de medidas corretivas: devem ser tomadas a partir da constatação de baixa transparência ou explicabilidade de uma solução de IA, incluindo eventualmente a descontinuidade da solução, caso as correções não sejam viáveis.
Com efeito, após meses de trabalho e debate, inúmeras audiências públicas e acolhimento de sugestões de todos os agentes do ambiente judicial, além de professores e técnicos, chegou-se à minuta final da nova Resolução nº 615 de 2025, felizmente já aprovada na sessão do CNJ no dia 18 de fevereiro de 2025 e publicada em 14 de março de 2025. É fundamental reconhecer o importante trabalho conduzido pelo conselheiro do CNJ Bandeira de Mello e do ministro do STJ Ricardo Villas Bôas Cueva, que, com habilidade e ponderação, lideraram o consenso quanto à importância da regulamentação do uso da IA pelo CNJ.
A nova resolução busca, assim, mitigar riscos inerentes ao uso da IA no Judiciário, estabelecendo limites e diretrizes para a sua utilização adequada e conforme aos princípios judiciais. Assim, ciente de que o documento não será atemporal e a evolução tecnológica certamente impõe atenção e acompanhamento contínuo, é certo que a inovadora norma servirá de forma empírica, mas com base em observação metódica, de norteador normativo geral para todos os tribunais.
Nesse sentido, o maior mérito da nova minuta é a busca por normas concretas e eficazes, que delimitam o uso apropriado da IA e estabelecem barreiras claras, evitando usos que violem os direitos fundamentais dos cidadãos. Isso porque, ao prever métodos de supervisão e auditoria, bem como vedações ao uso de sistemas de IA de risco excessivo e limitações concretas ao uso IA generativa pelos magistrados, a nova resolução constitui instrumento vanguardista para a regulamentação da IA no Brasil, podendo inclusive servir de inspiração para iniciativas regulatórias internacionais.
Recomendação da OAB Federal para o uso de IA por advogados
Os desafios enfrentados pelo Judiciário no uso da IA refletem adaptações não somente de Magistrados e servidores, mas também da prática da advocacia. Para orientar o uso ético e responsável dessas tecnologias, a Ordem dos Advogados do Brasil (OAB) aprovou, em 2024, recomendações direcionadas aos advogados. [11] As diretrizes estabelecem que a IA deve ser uma ferramenta auxiliar na pesquisa de jurisprudência e doutrina, exigindo dos advogados a verificação da veracidade e relevância das informações. Além disso, reforçam que o uso da IA não pode substituir o julgamento profissional nem as atividades exclusivas da advocacia, conforme o Estatuto da OAB.
As diretrizes também abordam a transparência e o sigilo profissional, [12] bem como a adoção de medidas para proteger as informações inseridas nos sistemas de IA, avaliando a segurança dos fornecedores e garantindo que os dados não sejam utilizados para o treinamento dessas ferramentas, em conformidade com a Lei Geral de Proteção de Dados (LGPD). Essas medidas, portanto, buscam equilibrar a inovação tecnológica com a ética profissional, assegurando que a IA seja utilizada de maneira responsável e alinhada aos princípios fundamentais da advocacia.
Conclusão: avanço tecnológico alinhado aos direitos fundamentais
Em razão das crescentes aplicações de tecnologias de IA pelos magistrados, advogados e servidores do Judiciário brasileiro, a regulamentação e regulação desses usos são essenciais para garantir que o avanço tecnológico não comprometa os direitos fundamentais dos cidadãos. O CNJ tem buscado equilibrar inovação e segurança jurídica. A transparência do uso, a explicabilidade dos algoritmos e a supervisão humana dos resultados são pilares fundamentais para que a IA seja uma aliada da justiça, e não um risco à sua integridade.
Assim como bem pontuou o Professor Urs Gasser, da Universidade Técnica de Munique, Alemanha, em uma das audiências públicas do Grupo de Trabalho do CNJ sobre Inteligência Artificial no Poder Judiciário, [13] ocorrida no dia 25 de setembro de 2024, “temos de estar conscientes das mudanças trazidas pela Inteligência Artificial no Judiciário, […] afinal, o crescimento da capacidade de desenvolvimento e de uso dessa ferramenta pelos Tribunais terá impacto na transformação e adaptação do próprio Judiciário às novas tecnologias, sendo necessária a adoção de novas habilidades [judiciais] para utilizar e regular a IA”.
Logo, é importante um debate contínuo sobre o tema, envolvendo juristas, desenvolvedores de IA e sociedade civil. Somente com regras e diretrizes claras, fiscalização eficiente e compromisso com os princípios judiciais será possível garantir que a IA seja utilizada pela Poder Judiciário de maneira a atender às necessidades da Justiça e dos jurisdicionados.
__________________________________________
[1] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Resolução nº 615, de 2025. Disponível em: https://atos.cnj.jus.br/atos/detalhar/6001. Acesso em: 14 mar. 2025.
[2] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Resolução nº 332, de 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/5368. Acesso em: 27 fev. 2025.
[3] SUPREMO TRIBUNAL FEDERAL (Brasil). Presidente do STF abre Ano Judiciário de 2025 e destaca união entre Poderes pelos princípios da Constituição. Brasília: STF, 2025. Disponível em: https://noticias.stf.jus.br/postsnoticias/presidente-do-stf-abre-ano-judiciario-de-2025-e-destaca-uniao-entre-poderes-pelos-principios-da-constituicao/#:~:text=Atualmente%2C%20s%C3%A3o%2080%20milh%C3%B5es%20de,decrescendo%20ao%20longo%20dos%20anos. Acesso em: 27 fev. 2025.
[4] INSTITUTO JuLIA. Justice, fundamental rights and artificial intelligence (101046631). Co-financiado pela Comissão Europeia (DG Just – JUST-2021-JTRA), out. 2024. Disponível em: https://www.julia-project.eu/. Acesso em 27 fev. 2025.
[5] A pesquisa tem por objetivo classificar em níveis de risco os projetos de IA catalogados na Plataforma Sinapses – plataforma nacional mantida pelo Conselho Nacional de Justiça (CNJ) – e apresentar possibilidades de melhorias na transparência de tais informações. Caballero, B. I.; Meier, I. F.; Lopes, J. G.; Junquilho, T. A.; Menezes de Azevêdo, U. Relatório de pesquisa: mapeando riscos da IA no Poder Judiciário brasileiro. Org. Tainá Aguiar Junquilho e Laura Schertel Ferreira Mendes. Revisão: Ian Ferrare Meier e Tainá Aguiar Junquilho. Brasília: Laboratório de Governança e Regulação de Inteligência Artificial (LIA) do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), 2024.
[6] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Relatório de pesquisa IAG-PJ. Brasília: CNJ, 2024. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2024/09/cnj-relatorio-de-pesquisa-iag-pj.pdf. Acesso em: 27 fev. 2025.
[7] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Minuta da Resolução sobre Inteligência Artificial. Brasília: CNJ, 2024. Disponível em: https://www.cnj.jus.br/wp-content/uploads/2025/02/minuta-resolucao-ia-vrevisada-2024-12-13-15h35-1.pdf. Acesso em: 27 fev. 2025.
[8] CIVININI, Maria Giuliana. The perks of using AI tools in the justice domain. In: Artificial Intelligence, Judicial Decision-Making and Fundamental Rights, Instituto JuLIA, 2024, p. 25.
[9] FRAZÃO, Ana. Inteligência artificial no Poder Judiciário: Como prevenir conflitos de interesse e uso indevido de dados pessoais e informações privilegiadas?. Jota, publicado em 19 jun. 2024. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/inteligencia-artificial-no-poder-judiciario. Acesso em 05 mar. 2025
[10] O Ministro Ricardo Villas Bôas Cueva define o fenômeno do sigilo judicial como “obscuridade prática”. Os movimentos de digitalização de procedimentos e informações no Judiciário redimensionou tal fenômeno, em comparação aos documentos de papel, visto ser ainda mais complexa a delimitação de acesso a informações sigilosas no contexto digital. VILLAS BÔAS CUEVA, Ricardo. Proteção de dados no Judiciário, Revista do Advogado, v. 39, 2019, p. 139.
[11] ORDEM DOS ADVOGADOS DO BRASIL (OAB). OAB aprova recomendações para uso de IA na prática jurídica. Brasília: OAB, 2024. Disponível em: https://www.oab.org.br/noticia/62704/oab-aprova-recomendacoes-para-uso-de-ia-na-pratica-juridica. Acesso em: 28 fev. 2025.
[12] ORDEM DOS ADVOGADOS DO BRASIL (OAB). Recomendações para o uso de inteligência artificial na prática jurídica. Brasília: OAB, 2024. Disponível em: https://s.oab.org.br/arquivos/2024/11/7160d4fe-9449-4aed-80bc-a2d7ac1f5d2f.pdf. Acesso em: 28 fev. 2025.
[13] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Audiência pública sobre Inteligência Artificial no Judiciário. YouTube, 2024. Disponível em: https://www.youtube.com/watch?v=ec7kXBP7lms. Acesso em: 27 fev. 2025.
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login