Pesquisar
Opinião

IA nos processos seletivos e os limites impostos pelo princípio da isonomia

A crescente adoção de sistemas de inteligência artificial (IA) no recrutamento de trabalhadores promete ganhos de eficiência para as empresas — mas acende um sinal de alerta jurídico. Ferramentas que automatizam a triagem de currículos, avaliam competências e até conduzem entrevistas por vídeo têm sido vendidas como mecanismos neutros. Mas quando examinadas à luz do ordenamento jurídico brasileiro, sobretudo o princípio constitucional da isonomia, mostram um potencial preocupante de amplificação de desigualdades.

Freepik

Braço robótico humanoide escrevendo com caneta sobre papel
Freepik

A ideia de que algoritmos são imunes a preconceitos ignora uma realidade elementar: eles aprendem com dados históricos — e estes, muitas vezes, estão impregnados de vieses sociais. Se os registros de contratação de uma empresa privilegiam, por exemplo, homens brancos de determinada faixa etária, a IA treinada com essa base tende a reproduzir esse padrão, mesmo diante de candidaturas igualmente qualificadas de mulheres, pessoas negras ou com deficiência. O risco de exclusão automatizada é real — e invisível.

Esse tipo de discriminação algorítmica pode ocorrer de forma sutil, por meio da priorização de determinadas palavras-chave, da exclusão automática de currículos com lacunas de tempo ou da avaliação de elementos subjetivos, como entonação de voz e expressões faciais em entrevistas gravadas. O processo, muitas vezes, ocorre sem qualquer transparência, o que impede o candidato de entender — e contestar — a razão de sua eliminação.

O princípio da isonomia, previsto no artigo 5º, caput, da Constituição, encontra respaldo direto em normas infraconstitucionais, como a Lei nº 9.029/95, que proíbe práticas discriminatórias na relação de trabalho. A Consolidação das Leis do Trabalho (CLT) também consagra dispositivos nesse sentido, como os artigos 373-A e 461, que vedam exigências discriminatórias e asseguram a igualdade salarial por trabalho de igual valor.

A Lei Geral de Proteção de Dados (LGPD), por sua vez, introduz um componente fundamental à discussão. O artigo 20 da LGPD assegura ao titular de dados o direito de revisão de decisões automatizadas. Isso significa que um candidato preterido por decisão algorítmica tem o direito de saber quais critérios foram utilizados e solicitar reavaliação humana do processo.

Na prática, no entanto, muitas empresas ainda operam com algoritmos opacos — as chamadas “caixas-pretas” — que dificultam a identificação e correção de vieses. Isso não só compromete o direito à informação e à autodeterminação informativa, como também coloca as empresas em situação de risco jurídico e reputacional.

Danos morais

Embora a legislação trabalhista não mencione expressamente a IA, a interpretação sistemática do ordenamento indica que qualquer instrumento que gere discriminação é ilegal. Se um sistema automatizado provoca exclusão com base em critérios que resultam em desigualdade de oportunidades sem justificativa objetiva e razoável, a empresa pode ser responsabilizada civilmente — inclusive com indenizações por danos morais.

Além disso, a jurisprudência trabalhista tem se consolidado no sentido de coibir práticas discriminatórias, mesmo quando disfarçadas por ferramentas tecnológicas. O Ministério Público do Trabalho já atua na fiscalização do uso de algoritmos em plataformas de emprego e tem manifestado preocupação com os impactos da IA sobre a inclusão no mercado de trabalho.

Diante desse cenário, é fundamental que as empresas implementem políticas claras de governança algorítmica: auditoria periódica dos sistemas, revisão humana obrigatória em etapas críticas, divulgação de critérios de triagem e canais efetivos para contestação de decisões.

A Autoridade Nacional de Proteção de Dados (ANPD) tem, em sua agenda regulatória, iniciativas para disciplinar o uso de IA com base nos princípios da LGPD, como finalidade, necessidade, transparência e não discriminação. Também é esperado que o Congresso Nacional avance em propostas de regulação mais específica sobre inteligência artificial, como o Projeto de Lei nº 2.338/23, que trata da responsabilidade e da governança desses sistemas.

A implementação da inteligência artificial no recrutamento não pode servir para terceirizar a discriminação. O discurso da eficiência não pode se sobrepor à exigência constitucional de igualdade de oportunidades. A aplicação da IA precisa estar subordinada a valores jurídicos fundamentais, com mecanismos de controle e responsabilização claros.

Se o futuro do trabalho é digital, ele precisa ser, antes de tudo, inclusivo. Garantir que os algoritmos não funcionem como filtros sociais é um dever jurídico, ético e empresarial. A caixa-preta precisa ser aberta — ou não haverá justiça do trabalho capaz de remediar o que foi automatizado de forma silenciosa, mas profundamente excludente.

Nathalia Oliveira

é advogada, graduada pela Faculdade de Direito de São Bernardo do Campo (2019). Pós-graduanda em Direito dos Contratos pela FGV. Sócia do escritório Souza de Carvalho, com atuação em Legal Operations, contratos inteligentes e Visual Law. Especialista em Direito e Inovação.

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.