A rápida expansão do uso de ferramentas de inteligência artificial (IA) no cotidiano do direito tem, gradativamente, imposto uma nova curva de aprendizado aos operadores do direito que passam a se ver obrigados a lidar com conceitos técnicos que transcendem o universo forense e que, até poucos anos atrás, não eram sequer mencionados durante as aulas das graduações e pós graduações ao redor do país.

A consequência desse movimento é o aumento do sentimento cada vez mais comum entre os colegas juristas de que a superficialidade acerca do conhecimento sobre o tema de IA em geral precisa ser superada e de que um aprofundamento sobre como efetivamente funcionam tais modelos se tornou necessário para todos.
No meio desse cenário a menção de conceitos técnicos como RAG , Fine Tuning, etc; passou a se tornar comum no dia-a-dia do jurista, mesmo que por vezes feito de forma tecnicamente imprecisa ou pouco coesa[1] [2], fazendo com que a busca por textos e cursos que tenham por objetivo “explicar tudo sobre IA” venha aumentando ao longo dos últimos meses.
Longe de tentar emular um desses cursos, ou de se propor a falar de forma exaustiva sobre os temas, este texto tem por objetivo se debruçar na apresentação de um desses conceitos que subitamente ganharam grande importância, qual seja, o de engenharia de prompts com o intuito de fazer nascer nos colegas juristas o sentimento de que compreender temáticas envolvendo IA é algo não apenas desejável como também possível.
Mas afinal, o que é engenharia de prompts?
A engenharia de prompts, em linhas gerais, pode ser definida como o conjunta de técnicas que tem por objetivo racionalizar o processo de elaboração de instruções em linguagem natural, ou prompts, que serão enviados para os LLMs (Large Language Models) que sustentam os principais aplicativos de IA no mercado.
Essa abordagem permite com que tanto pesquisadores que se debruçam sobre o tema dos LLM’s quanto entusiastas sem um profundo conhecimento matemático em machine learning, possam obter respostas densas e qualificadas e extrair o que há de melhor desses modelos de IA sem a necessidade de longos processos de treinamento de dados e programação dos modelos sendo usados.
O objetivo central da engenharia de prompts é, portanto, compor instruções para elicitar conhecimento dos LLMs de forma estruturada, permitindo que o modelo produza respostas relevantes, de qualidade e contextualizadas.
Importância da engenharia de prompts
Um exemplo prático na rotina forense ilustra a importância dessa técnica: Caso um advogado, por exemplo, escreva um prompt sem qualquer técnica ou contexto como: “O que é responsabilidade civil do Estado?” ou “melhore esse texto para mim”, tendencialmente obterá respostas pouco qualificadas ou cheias das tantas vezes mencionadas “alucinações”.

Caso esse mesmo jurista, todavia, faça uso de um prompt cuidadosamente elaborado, que faça coisas como instruir o modelo a atuar em um papel específico, delimitar o formato da resposta e as restrições de conteúdo, dar informações e contexto acerca do tópico sendo abordado, etc; tendencialmente obterá resultados melhores como resposta (ênfase aqui no termo “tendencialmente”, afinal, ainda se trata do uso de modelos probabilísticos).
Uma vez compreendido de forma geral o que é engenharia de prompts, interessante adentrar mais a fundo no tema para entender um pouco mais sobre algumas das técnicas que compõem esse ramo do conhecimento tendo, porém, consciência de que esse é um esforço continuo e que não se esgota no presente texto, vez que diariamente novas técnicas são criadas e exploradas por pesquisadores em todo o mundo.
Como forma de introduzir o leitor a esse universo, apresentamos abaixo um pouco sobre 3 dessas técnicas que, mesmo simples, possuem o potencial de melhorar drasticamente a qualidade da experiência do usuário com os ditos modelos, quais sejam: Role Playing, Chain-of-Thought (CoT) e Tree-of-Thoughts (ToT).
- Role Playing Prompting
O Role Play Prompting é uma técnica que consiste na ação de construir um prompt que instrui o modelo de linguagem a assumir um “papel” ou persona específica. Essa abordagem transforma o Large Language Model (LLM) de um gerador de texto genérico em um especialista simulado, como um procurador, um juiz, um advogado consultivo ou até mesmo um técnico especializado. Ao fazer isso, o jurista permite que as respostas sejam adaptadas tanto ao estilo quanto à formalidade exigidos para simular situações jurídicas reais. Essa adaptação do tom e da linguagem é crucial, especialmente quando se reconhece que o LLM, treinado com vastos conjuntos de textos, precisa de instruções específicas para extrair conhecimento de dentro do seu “horizonte de conhecimentos” de maneira organizada [3].
Na prática jurídica, o RPP é altamente eficaz para diversas tarefas. Ele pode, por exemplo, ser fundamental na preparação de pareceres formais e na elaboração de orientações para litígios, pois simula a escrita de um especialista, tornando a resposta mais adequada à sua finalidade. Por exemplo, se um advogado precisa explicar um tema complexo para um cliente leigo, ele pode instruir o LLM com algo como “Comporte-se como um professor universitário com linguagem didática”. Além disso, o RPP pode ser usado para simular a argumentação da parte contrária (“Atue como advogado da Empresa X…”) ou para traduzir a complexidade técnica para gestores sem formação jurídica.
Exemplo Prático de um prompt escrito com essa técnica: “Se comporte como um advogado com 30 anos de carreira que é mestre e doutor em direito administrativo e que está acostumado a montar explicações densas, mas facilmente compreensíveis, sobre o tema. Tendo em vista isso, explique, de forma didática e com linguagem acessível, a diferença entre responsabilidade objetiva e subjetiva no contexto da responsabilidade civil do Estado. Organize sua resposta em um pequeno parágrafo, como se estivesse falando em sala de aula. Após a explicação, gere uma breve seção de ‘Perguntas e Respostas’ que um cliente leigo poderia fazer sobre o tema, simulando um diálogo de consultoria.”
- Chain-of-Thought (CoT) Prompting
Diferentemente do RPP, que foca no estilo e no papel, o Chain-of-Thought (CoT) Prompting se concentra na estrutura do raciocínio. Esta técnica guia o modelo a decompor um problema complexo em etapas sequenciais intermediárias, de forma semelhante ao modo como um ser humano desmembra um raciocínio lógico. A capacidade de produzir essa “cadeia de pensamento” melhora intrinsecamente as habilidades de raciocínio do LLM, levando a respostas mais estruturadas e precisas.
No dia a dia o seu uso pode ser extremamente produtivo para auxiliar na produção de textos mais densos cuja construção dependa da criação de uma linha argumentativa coesa, que parta de pressupostos para, então, chegar em conclusões sem com que, durante esse processo, o modelo de IA faça conexões ou pressuposições equivocadas, ou simplesmente “pule” etapas cruciais do pensamento.
Exemplo prático de um prompt escrito com essa técnica: “Estruture uma análise detalhada sobre a responsabilidade civil do Estado, usando a técnica Chain-of-Thought. Comece pelo Fundamento Legal (artigo 37, §6º, CF/88), depois analise o Critério de Imputação (objetiva para regra e subjetiva para exceção), em seguida descreva o Elemento Probatório exigido em cada um (nexo causal e, se for o caso, culpa) e, por fim, apresente uma Conclusão Clara.”
- Tree-of-Thoughts (ToT) Prompting
Avançando na complexidade do raciocínio, o Tree-of-Thought (ToT) Prompting expande a ideia sequencial do CoT para uma estrutura de busca combinatória representada como uma árvore. Aqui, ao invés de seguir um único caminho linear, o modelo gera uma árvore de pensamentos, onde cada “pensamento” é uma sequência coerente de linguagem que serve como passo intermediário de raciocínio, ou seja, uma linha de raciocínio para a resolução do problema apresentado (esse framework é baseado na noção de que a solução de problemas complexos requer a exploração de diferentes linhas de raciocínio [4]).
O diferencial do ToT reside, portanto, na sua capacidade de forçar o modelo de IA a passar por um processo de avaliação e reavaliação de cada uma das suas respostas que permita um aumento substancial na qualidade da resposta final.
Com isso, na prática, o uso de prompts que sigam uma lógica d ToT faz com que o LLM gere e avalie o progresso de cada um dos pensamentos possíveis para a temática a ele trazida e, em seguida, selecione apenas aqueles mais promissores e descarte aqueles que levam a becos sem saída [5].
Trazendo essa técnica para mais próximo da prática cotidiana é possível perceber que seu uso faz com que seja possível ao usuário ao invés de receber apenas uma resposta “seca” para seu problema, receber uma resposta que simula diferentes linhas de pensamento (defesa ou acusação, por exemplo), analisa a viabilidade de cada uma delas com base em critérios jurídicos (como relevância e aderência normativa) e, finalmente, consolida a melhor linha argumentativa.
Tais características fazem com que seu uso seja particularmente útil em temas controversos ou em cenários de entendimentos divididos sobre determinados temas onde há múltiplas interpretações possíveis e é necessário escolher um posicionamento e argumentar o motivo de tal escolha.
Exemplo Prático de um prompt escrito com essa técnica: “Explique a diferença entre responsabilidade objetiva e subjetiva no contexto da responsabilidade civil do Estado. Simule a técnica Tree-of-Thought gerando uma estrutura explícita de deliberação.
- Thoughts iniciais (Geração de Ramos): Gere 3 thoughts curtos (1–2 frases cada). Cada thought deve ser um caminho de análise sobre a diferença entre responsabilidade objetiva e subjetiva no texto da responsabilidade civil do estado (e.g., Foco no risco administrativo, Foco na falta do serviço, Foco no dolo/culpa).
- Avaliação inicial: Atribua uma nota de 0 a 3 para cada thought, justificando brevemente a nota (e.g., ‘3, alta aderência ao artigo 37, §6º da CF/88’).
- Expansões selecionadas: Escolha os 2 thoughts melhor avaliados e gere 2 thoughts filhos para cada um, aprofundando o aspecto jurídico relevante (e.g., se o ramo foi ‘risco administrativo’, o filho deve detalhar a teoria do risco integral vs. risco administrativo).
- Caminho escolhido: Liste a sequência de thoughts do nó raiz ao nó final selecionado, explicando por que é o mais adequado para uma consulta jurídica geral.
- Resposta final: Sintetize a resposta final, incluindo a definição de ambas as responsabilidades, a diferença central, o papel do nexo causal e o fundamento normativo (artigo 37, §6º, CF/88)
Conclusão
Com a rápida expansão do uso de IA no Direito, compreender minimamente essa tecnologia deixou de ser um diferencial e passou a ser uma necessidade prática. Modelos como os LLMs já influenciam tarefas cotidianas e, com isso, o domínio básico de como interagir corretamente com essas ferramentas se tornou essencial para qualquer jurista que queira manter produtividade, qualidade e competitividade.
Nesse contexto, a engenharia de prompts destaca-se como uma habilidade de impacto imediato: com técnicas simples, o profissional consegue extrair respostas mais precisas, contextualizadas e úteis, sem depender de conhecimentos avançados de programação ou machine learning.
Por essa razão, iniciar a jornada de estudos em IA pela engenharia de prompts é uma escolha estratégica. Trata-se de um ponto de entrada acessível e intuitivo, que permite ao jurista experimentar, na prática, como pequenas mudanças na forma de perguntar transformam profundamente a qualidade das respostas. Ao visualizar esses resultados de maneira concreta, muitas das barreiras psicológicas associadas à “complexidade da IA” se desfazem. A tecnologia deixa de parecer um território intransponível e passa a ser percebida como uma ferramenta compreensível, utilizável e alinhada à lógica argumentativa do direito.
Apesar disso, é fundamental reconhecer que o domínio da engenharia de prompts, por mais útil que seja, não esgota a formação necessária para compreender IA em nível profissional. Ela melhora a interação com os modelos, mas não explica como esses modelos funcionam, como são treinados, quais bases de dados utilizam ou quais limitações técnicas e éticas os cercam. Assim, não é razoável que o simples domínio dessa habilidade sirva para sustentar títulos de “especialista em IA no Direito” ou “usuário avançado”, pois isso exige um repertório técnico mais amplo.
É preciso reconhecer que, para dialogar com a área de tecnologia e efetivamente usar os modelos de IA de forma responsável no direito, é necessário se aprofundar em temas mais densos envolvendo o uso de IA como RAG, Fine-Tuning (LoRa, QLoRa, etc) e, até mesmo, temas mais amplos sobre a própria forma como são criadas e organizadas as bases de dados judiciais no sistema jurídico brasileiro como um todo, os desafios que existem para a coleta de tais dados[6] [7] e os impactos desse cenário na qualidade dos modelos existentes.
_________________________________
Referências
ROCHA, Igor Moraes. Inteligência artificial, metáforas jurídicas e o risco da ignorância técnica. Consultor Jurídico, São Paulo, 29 abr. 2025.
ROCHA, Igor Moraes. Quem tem medo do robô mau? — protocolos ‘robot.txt’ e a Justiça digital. Consultor Jurídico, São Paulo, 01 jan. 2023.
ROCHA, Igor Moraes. Web crawlers, web scrapers e a sua importância para o Direito. Consultor Jurídico, São Paulo, 18 set. 2022.
ROCHA, Igor Moraes; PUCHTA, Guilherme Vargas. IA no Direito: três conceitos essenciais para juristas. [S. L.]: JOTA, 23 mar. 2025.
SAHOO, Pranab et al. A systematic survey of prompt engineering in large language models: Techniques and applications. arXiv preprint arXiv:2402.07927, 2024.
VATSAL, Shubham; DUBEY, Harsh. A survey of prompt engineering methods in large language models for different NLP tasks. arXiv preprint arXiv:2401.07180, 2024
YAO, Shunyu et al. Tree of thoughts: Deliberate problem solving with large language models. Advances in Neural Information Processing Systems, v. 36, 2024.
[1] ROCHA, Igor Moraes; PUCHTA, Guilherme Vargas. IA no Direito: três conceitos essenciais para juristas. [S. L.]: JOTA, 23 mar. 2025.
[2] ROCHA, Igor Moraes. Inteligência artificial, metáforas jurídicas e o risco da ignorância técnica. Consultor Jurídico, São Paulo, 29 abr. 2025.
[3] VATSAL, Shubham; DUBEY, Harsh. A survey of prompt engineering methods in large language models for different NLP tasks. arXiv preprint arXiv:2401.07180, 2024
[4] SAHOO, Pranab et al. A systematic survey of prompt engineering in large language models: Techniques and applications. arXiv preprint arXiv:2402.07927, 2024.
[5] YAO, Shunyu et al. Tree of thoughts: Deliberate problem solving with large language models. Advances in Neural Information Processing Systems, v. 36, 2024.
[6] ROCHA, Igor Moraes. Quem tem medo do robô mau? — protocolos ‘robot.txt’ e a Justiça digital. Consultor Jurídico, São Paulo, 01 jan. 2023.
[7] ROCHA, Igor Moraes. Web crawlers, web scrapers e a sua importância para o Direito. Consultor Jurídico, São Paulo, 18 set. 2022.
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login