Pesquisar
Consultor Tributário

A IA na fiscalização e no contencioso tributário

O auditório estava lotado, dois andares tomados, algo perto de 600 pessoas. Antes de iniciar a sua palestra sobre a IA no Direito, o desembargador decidiu inverter o script e fazer à plateia uma pergunta simples: quem preferiria ser julgado por inteligência artificial e quem escolheria um magistrado de carne e osso? Quase todas as mãos erguidas apontaram para o humano. A impressão era de unanimidade.

Spacca

Spacca

Ao constatar o resultado, ele passou a desafiá-lo, não com afirmações, mas com perguntas que se encaixavam como peças de um mesmo quebra-cabeça. Todos têm certeza de que os julgadores humanos, em sua totalidade, realmente leem por inteiro e com atenção as petições, contestações, recursos e contrarrazões, e não apenas as percorrem de maneira superficial? Mais do que ler, absorvem o que cada parte argumenta e cotejam essas razões antes de decidir? No plenário virtual, que as sustentações orais encaminhadas são de fato ouvidas e consideradas? Que ao aplicar a lei e a jurisprudência, o magistrado trabalha com referências tão atualizadas quanto possível às vésperas do julgamento? Que, sempre que solicitado, o julgador despacha no tempo devido? Que é viável conciliar celeridade e segurança jurídica de modo consistente ao longo de todo o ano, mesmo sob carga excessiva de processos?

Concluída a bateria de indagações, ele retornou ao ponto de partida e pediu que a plateia respondesse, uma vez mais, à mesma provocação: quantos, agora, preferiam a inteligência artificial a um julgador de carne e osso? O resultado se inverteu numa virada de 180 graus a favor da IA.

Esse episódio — real, simples na forma e incisivo no conteúdo — não pretendeu converter ninguém à ideia de substituir o humano pela máquina; pretendeu, isso sim, expor as fissuras da nossa confiança automática e absoluta em qualquer dos dois polos e preparar o terreno para a discussão que se impõe no momento em que vivemos.

Foi com referência a esse episódio que abri a minha fala sobre o tema, num excelente seminário realizado em Portugal, pelo Aconcarf (Associação dos Conselheiros Representantes dos Contribuintes no Carf) no início deste mês.

Nessa fala, apresentei o conceito de “Devido Processo Tecnológico”, cunhado por Daniela Keats Citron [1], bem como os princípios que dele emanam; mostrei como vem evoluindo a adoção de IA na fiscalização e no contencioso tributário (judicial e administrativo) e tracei os limites que devem, a meu ver, orientar o seu uso para gerar ganhos reais sem comprometer a imparcialidade.

Devido processo tecnológico

Um dos princípios constitucionais basilares assegurados a qualquer cidadão é que ele desfrute do devido processo legal quando submetido a qualquer procedimento estatal ou atividade jurisdicional de que faça parte.

Nesse novo mundo em que vivemos, o devido processo legal se amolda à nova realidade, e dele decorre a concepção do devido processo tecnológico como tradução, para a era algorítmica, das garantias que sempre estruturaram aquele princípio maior.

A expressão contextualiza o conjunto de salvaguardas que devem acompanhar qualquer uso de IA no contencioso judicial e administrativo, bem como em procedimentos do Poder Público que tenham por objeto o jurisdicionado.

A premissa é simples. A IA integra o fluxo de trabalho — ela organiza acervos, agrupa casos repetitivos, identifica precedentes e auxilia na redação de relatórios e peças afins. Tudo isso tem lugar legítimo quando a tecnologia atua em funções ancilares, sob supervisão humana, sem invadir o núcleo da decisão.

O devido processo tecnológico nasce para garantir que essa fronteira não se perca no caminho, mediante a observância dos seguintes princípios:

Transparência: é necessário explicitar critérios, dados e lógicas utilizados pelos sistemas; indicar quais algoritmos são empregados, com quais bases foram treinados, que instruções receberam e em que etapas do processo atuaram. Sem luz sobre esse percurso, não há como aferir neutralidade nem corrigir rumos.
Imparcialidade: decisões algorítmicas não podem ser enviesadas nem reproduzir discriminações embutidas nos dados ou no código.
Revisibilidade e contraditório: como observa Danielle Keats Citron, sistemas automatizados tendem a incorporar preconceitos das políticas públicas ou dos programadores, o que exige políticas auditáveis para identificar e corrigir vieses. A imparcialidade deve ser perseguida por meio de revisões independentes e testes contínuos, sob pena de a máquina se tornar uma instância opaca de convencimento. Toda atividade de IA precisa admitir auditoria técnica, revisão humana efetiva e registro do que foi aproveitado ou descartado.
Prestação de contas: a accountability, no contexto da automação administrativa, impõe que as autoridades públicas permaneçam responsáveis pelas decisões tomadas por sistemas que operam sob sua gestão. O deslocamento do poder decisório para programadores ou fornecedores não dissolve a responsabilidade estatal.
Correção (exatidão): decisões automatizadas devem ser fática e logicamente precisas, com mecanismos regulares de verificação e atualização das regras codificadas. Citron propõe que o devido processo tecnológico incorpore modelos inquisitivos de controle de qualidade, capazes de detectar erros sistemáticos e falhas algorítmicas antes que causem prejuízo em massa. Correção operacional, aliada à transparência, é condição para restaurar a confiança e a validade jurídica de decisões suportadas por IA.

Esses são os eixos que sustentam a imparcialidade quando a automação deixa de ser uma promessa distante e entra no cotidiano dos órgãos de julgamento.

IA na fiscalização, na PGFN e no contencioso judicial e administrativo

O CNJ (Conselho Nacional de Justiça) enxergou cedo o risco de uma adoção fragmentada e instituiu o Sinapses, exigindo o depósito de modelos e a padronização de práticas para permitir auditorias e reduzir assimetrias. Ao lado do Sinapses, o projeto Conecta dissemina nacionalmente soluções criadas localmente e, na Plataforma Digital do Poder Judiciário (PDPJ-Br), a Apoia — primeira IA generativa integrada — passou a oferecer relatórios, sínteses e triagens em ambiente institucional. Ao centralizar diretrizes e infraestrutura (Sinapses, Conecta e Apoia), o CNJ evita que diferentes tribunais cristalizem vieses regionais sob a aparência de ganho de eficiência e aproxima a gestão da IA das exigências de publicidade, controle e uniformidade, que sempre reclamamos nas rotinas judiciais.

No Supremo Tribunal Federal, a IA foi incorporada em funções restritas ao ambiente interno por meio do Projeto Maria (Módulo de Apoio para Redação com Inteligência Artificial), voltada à geração de minutas de ementas, relatórios em RE/ARE e análises iniciais em reclamações, sempre com revisão humana e integração às rotinas do gabinete; a experiência sucede o Projeto Victor, direcionado à classificação e à identificação de temas de repercussão geral.

No Superior Tribunal de Justiça, a adoção se concentrou na organização do acervo por meio do Athos, sistema de identificação e monitoramento de temas repetitivos, agrupamento de recursos por tese e sinalização de coerência jurisprudencial, sem delegar à máquina a apreciação do mérito.

Há, contudo, um risco intrínseco que o devido processo tecnológico precisa enfrentar: o viés algorítmico. Modelos aprendem com padrões históricos e tendem a repeti-los — ainda que esses padrões tragam distorções. Se o treinamento embute leituras punitivistas, interpretações estreitas de súmulas ou recortes fáticos limitados, a IA reproduzirá tais escolhas e lhes dará escala. Daí a exigência de testes periódicos de desempenho e de viés, com capacidade institucional de ajustar rotas e, quando necessário, suspender o uso até que o desalinhamento seja corrigido.

No Carf, o lugar legítimo da IA se corporifica em atribuições ancilares: triagem, verificação de requisitos de admissibilidade, distribuição por matéria e organização de pautas — hoje reunidas em iniciativas como o projeto IARA: triagem, verificação de requisitos de admissibilidade, distribuição por matéria e organização de pautas, hoje reunidas sob iniciativas como o projeto Iara. A fronteira problemática surge quando o sistema passa a sugerir minutas de voto ou linhas prováveis de decisão.

Em cenário de cobrança por produtividade, a tendência de acolher a sugestão automática sem exame aprofundado ameaça a autonomia do conselheiro e esvazia o colegiado. Esse é um aspecto que muito nos preocupa. O devido processo tecnológico impõe aqui duas travas: transparência integral sobre as instruções e bases do modelo e identificação, no processo, de toda contribuição algorítmica ao convencimento, para que o controle das partes e a própria responsabilização do julgador não se tornem ficção. Sugestões de votos devem ser terminantemente vedadas.

O mesmo raciocínio vale para a Receita Federal e para a fiscalização. Ferramentas como Arpia e Iris, usadas em perfis de risco, fronteiras e viagens, são valiosas no cruzamento de dados e na seleção de casos com maior probabilidade de inconsistência; mas não podem se converter em atalho para autuações fabricadas por pontuações opacas. O devido processo tecnológico exige critérios objetivos de priorização, trilhas de auditoria que permitam reconstituir o caminho até o alerta e contraditório qualificado quando a medida pretendida possa produzir gravame relevante. Sem isso, multiplicam-se falsos positivos e, com eles, a indevida inversão prática do ônus da prova.

Um exemplo recente, na cobrança da dívida ativa, ilustra essa lógica. A PGFN passou a usar a IA generativa Spoiler para gerir milhões de execuções fiscais. A ferramenta lê andamentos, resume o estado do processo e sugere o próximo passo — sempre sujeito à revisão do procurador. Isso permite classificar processos em blocos e movimentá-los em lote, inclusive para requerer a extinção de execuções já quitadas. O projeto, iniciado em 2023, integrou dados dispersos em um ambiente único, com apoio técnico do Serpro. Há ganhos de eficiência, mas a cautela permanece: revisão humana obrigatória, atenção a alucinações e baixa explicabilidade, respeito à proteção de dados e observância das diretrizes de governo digital [2].

No Judiciário, as experiências mais seguras preservam a ancilaridade. Ferramentas de automação não generativa que agrupam temas repetitivos e localizam precedentes, bem como módulos que sintetizam peças e elaboram relatórios sujeitos à revisão humana, demonstram que a tecnologia cumpre melhor seu papel quando acelera o que é mecânico para liberar o que é interpretativo. O devido processo tecnológico, nesses casos, aparece como regra de uso: a máquina ajuda, o juiz decide e responde.

Um ponto adicional, frequentemente negligenciado, reforça a necessidade do devido processo tecnológico: o distinguishing. A teoria dos precedentes não autoriza decisões por atacado. Ela exige cotejo de fatos e fundamentos para aplicar, modular ou afastar o precedente. Sistemas que empurram a aplicação automática de súmula ou repetitivo, sem espaço para demonstrar peculiaridades relevantes, transformam o jurisdicionado em figurante. O devido processo tecnológico, ao exigir transparência sobre o papel da IA, a revisão humana e a preservação do contraditório, protege esse espaço de personalização do julgamento.

Conclusão

Em síntese, o devido processo tecnológico não é um adorno conceitual, mas a arquitetura mínima para que a IA sirva ao processo — e jamais o substitua. Seu papel é manter nítida a linha que separa o que a máquina faz bem (organizar, classificar, sintetizar, sinalizar) do que só o humano pode fazer com legitimidade (valorar prova, distinguir precedentes, fundamentar e decidir). Transparência sobre ferramentas e dados, revisibilidade com trilhas de auditoria, contraditório efetivo, entre outros, não são gentilezas: são as condições que impedem que padrões estatísticos se apresentem como razões jurídicas.

Esse desenho já está parcialmente em marcha. No plano nacional, o CNJ combinou governança e escala com Sinapses, Conecta e Apoia, evitando ilhas tecnológicas e reduzindo assimetrias entre tribunais. No STF, a Maria acelera bastidores redacionais sem tocar a autoria do voto; no STJ, o Athos organiza temas repetitivos para devolver tempo ao que é interpretativo. No Carf, iniciativas como o Iara fazem sentido quando ficam na triagem, na admissibilidade e na gestão de pauta — não quando tentam “sugerir” o voto. Na fiscalização, ferramentas como Arpia e Iris têm utilidade concreta ao direcionar inspeções e priorizar casos, desde que seus critérios sejam objetivos, auditáveis e proporcionais ao impacto sobre o contribuinte. Na PGFN, o Spoiler gere, de forma racional, milhões de execuções fiscais.

O risco que atravessa todas essas frentes é claro: viés algorítmico ampliado por opacidade e por pressões de produtividade. Sem testes periódicos de desempenho e de viés, sem logs acessíveis e sem um “botão de parada” institucional, a promessa de eficiência degenera em decisões padronizadas por inércia, com falsa aparência de neutralidade. O resultado é perverso: trocam-se muitos vieses humanos por um único viés algorítmico — mais silencioso, mais rápido e igualmente injusto.

O caminho responsável é pragmático. Primeiro, escopo: IA em funções ancilares; núcleo decisório exclusivamente humano. Segundo, governança: registro de uso no próprio processo, documentação de modelos e dados, comitês multidisciplinares e auditorias recorrentes. Terceiro, accountability: identificação clara de quem revisou e assumiu a peça produzida com apoio de IA, com canais de contestação e métricas que privilegiem qualidade de fundamentação (e não apenas velocidade). Quarto, formação contínua: letramento algorítmico para julgadores, conselheiros, auditores e equipes, a fim de evitar a captura cognitiva pelo “atalho” da máquina.

No fim, a régua é de simples enunciação: ferramenta, não árbitro; apoio, não substituição. IA para preparar o terreno; pessoas para decidir, responder e explicar.

Se mantivermos essa ordem, CNJ, STF, STJ, Carf, PGFN, Receita e fiscalização colherão ganhos reais de eficiência sem renunciar à imparcialidade que sustenta a legitimidade do sistema. Se a abandonarmos, voltaremos ao auditório lotado e veremos — em novos 180 graus — a confiança na IA então manifestada na repetição da pergunta feita pelo desembargador se esvair quando se constatar que a justiça entendida como boa deixará de ser explicável por quem assina a decisão.

_____________________

[1] in Technological Due Process, Washington University Law Review, v.85, 1249 (2008)

[2] OLIVON, Beatriz. “PGFN adota IA para gerir milhões de execuções fiscais”. Valor Econômico — caderno Legislação, 20 out. 2025. Aqui.

Gustavo Brigagão

é sócio fundador do escritório Brigagão, Duque Estrada – Advogados, presidente nacional do Centro de Estudos das Sociedades de Advogados (Cesa), presidente honorário da Associação Brasileira de Direito Financeiro (ABDF), vice-presidente do Fórum Permanente de Direito Tributário da Escola da Magistratura do Rio de Janeiro, former member of the Executive Committee of The International Fiscal Association (IFA), membro do Conselho de Altos Estudos de Finanças e Tributação (Caeft), da Associação Comercial de São Paulo, membro do Conselho de Administração da Câmara Britânica (Britcham), diretor da Federação das Câmaras de Comércio do Exterior (FCCE) e professor na pós-graduação de Direito Tributário da Fundação Getúlio Vargas (FGV).

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.