A crescente adoção de sistemas de inteligência artificial (IA) no recrutamento de trabalhadores promete ganhos de eficiência para as empresas — mas acende um sinal de alerta jurídico. Ferramentas que automatizam a triagem de currículos, avaliam competências e até conduzem entrevistas por vídeo têm sido vendidas como mecanismos neutros. Mas quando examinadas à luz do ordenamento jurídico brasileiro, sobretudo o princípio constitucional da isonomia, mostram um potencial preocupante de amplificação de desigualdades.

A ideia de que algoritmos são imunes a preconceitos ignora uma realidade elementar: eles aprendem com dados históricos — e estes, muitas vezes, estão impregnados de vieses sociais. Se os registros de contratação de uma empresa privilegiam, por exemplo, homens brancos de determinada faixa etária, a IA treinada com essa base tende a reproduzir esse padrão, mesmo diante de candidaturas igualmente qualificadas de mulheres, pessoas negras ou com deficiência. O risco de exclusão automatizada é real — e invisível.
Esse tipo de discriminação algorítmica pode ocorrer de forma sutil, por meio da priorização de determinadas palavras-chave, da exclusão automática de currículos com lacunas de tempo ou da avaliação de elementos subjetivos, como entonação de voz e expressões faciais em entrevistas gravadas. O processo, muitas vezes, ocorre sem qualquer transparência, o que impede o candidato de entender — e contestar — a razão de sua eliminação.
O princípio da isonomia, previsto no artigo 5º, caput, da Constituição, encontra respaldo direto em normas infraconstitucionais, como a Lei nº 9.029/95, que proíbe práticas discriminatórias na relação de trabalho. A Consolidação das Leis do Trabalho (CLT) também consagra dispositivos nesse sentido, como os artigos 373-A e 461, que vedam exigências discriminatórias e asseguram a igualdade salarial por trabalho de igual valor.
A Lei Geral de Proteção de Dados (LGPD), por sua vez, introduz um componente fundamental à discussão. O artigo 20 da LGPD assegura ao titular de dados o direito de revisão de decisões automatizadas. Isso significa que um candidato preterido por decisão algorítmica tem o direito de saber quais critérios foram utilizados e solicitar reavaliação humana do processo.
Na prática, no entanto, muitas empresas ainda operam com algoritmos opacos — as chamadas “caixas-pretas” — que dificultam a identificação e correção de vieses. Isso não só compromete o direito à informação e à autodeterminação informativa, como também coloca as empresas em situação de risco jurídico e reputacional.
Danos morais
Embora a legislação trabalhista não mencione expressamente a IA, a interpretação sistemática do ordenamento indica que qualquer instrumento que gere discriminação é ilegal. Se um sistema automatizado provoca exclusão com base em critérios que resultam em desigualdade de oportunidades sem justificativa objetiva e razoável, a empresa pode ser responsabilizada civilmente — inclusive com indenizações por danos morais.
Além disso, a jurisprudência trabalhista tem se consolidado no sentido de coibir práticas discriminatórias, mesmo quando disfarçadas por ferramentas tecnológicas. O Ministério Público do Trabalho já atua na fiscalização do uso de algoritmos em plataformas de emprego e tem manifestado preocupação com os impactos da IA sobre a inclusão no mercado de trabalho.
Diante desse cenário, é fundamental que as empresas implementem políticas claras de governança algorítmica: auditoria periódica dos sistemas, revisão humana obrigatória em etapas críticas, divulgação de critérios de triagem e canais efetivos para contestação de decisões.
A Autoridade Nacional de Proteção de Dados (ANPD) tem, em sua agenda regulatória, iniciativas para disciplinar o uso de IA com base nos princípios da LGPD, como finalidade, necessidade, transparência e não discriminação. Também é esperado que o Congresso Nacional avance em propostas de regulação mais específica sobre inteligência artificial, como o Projeto de Lei nº 2.338/23, que trata da responsabilidade e da governança desses sistemas.
A implementação da inteligência artificial no recrutamento não pode servir para terceirizar a discriminação. O discurso da eficiência não pode se sobrepor à exigência constitucional de igualdade de oportunidades. A aplicação da IA precisa estar subordinada a valores jurídicos fundamentais, com mecanismos de controle e responsabilização claros.
Se o futuro do trabalho é digital, ele precisa ser, antes de tudo, inclusivo. Garantir que os algoritmos não funcionem como filtros sociais é um dever jurídico, ético e empresarial. A caixa-preta precisa ser aberta — ou não haverá justiça do trabalho capaz de remediar o que foi automatizado de forma silenciosa, mas profundamente excludente.
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login