As tecnologias de reconhecimento facial têm sido apresentadas como símbolo de modernização na segurança pública brasileira. Projetos multiplicam-se em estados e municípios em parcerias com empresas de tecnologia, quase sempre sem transparência mínima sobre custos, contratos ou protocolos de uso [1].

Atualmente, segundo os dados do Projeto Panóptico [2] do Centro de Estudos e Cidadania (Cesec), são 471 projetos ativos em todo o território nacional e aproximadamente 87 milhões de cidadãos sob potencial vigilância desses sistemas. Esse avanço tem criado aderência nos discursos, práticas e políticas de segurança pública com a promessa de eficiência, rapidez e combate à criminalidade. Mas os dados e a experiência concreta mostram outro lado dessa história.
O reconhecimento facial é uma tecnologia de identificação biométrica que utiliza algoritmos para comparar imagens captadas por câmeras com fotografias armazenadas em bancos de dados. Em termos técnicos, o sistema detecta um rosto, extrai pontos característicos (distância entre olhos, formato do nariz, contorno do rosto) e transforma essa informação em um vetor matemático. Esse vetor é então comparado com registros já existentes, gerando um índice de semelhança. Quando o índice ultrapassa determinado parâmetro, o sistema aponta a possibilidade de “match” entre as imagens.
Trata-se de uma tecnologia probabilística, não determinística. Isso significa que a máquina não afirma com certeza que duas imagens pertencem à mesma pessoa, mas apenas que há uma probabilidade de correspondência dentro do limiar definido.
Esse caráter probabilístico tem relevância jurídica e política imediata: no processo penal, não se pode equiparar um índice estatístico à prova robusta de autoria. Daí a necessidade de discutir a tecnologia de reconhecimento facial à luz da Constituição (direito à liberdade, igualdade e privacidade), da Lei Geral de Proteção de Dados (Lei 13.709/2018), além de parâmetros internacionais de direitos humanos, já que não há ainda jurisprudência consolidada no Brasil sobre a validade probatória dessa tecnologia.
Tipos de uso do reconhecimento facial no sistema de justiça criminal
O reconhecimento facial no Brasil tem sido empregado de duas formas principais, ambas com impactos relevantes sobre direitos fundamentais. A primeira, o uso em tempo real, típico de projetos de vigilância urbana como o Smart Sampa, em São Paulo, que integra mais de 31 mil câmeras conectadas a centrais de monitoramento. Nesse modelo, a tecnologia compara rostos captados na rua com bancos de dados de procurados, gerando alertas automáticos às viaturas. O efeito é a transformação da cidade em espaço de vigilância permanente, com risco elevado de falsos positivos e de abordagens indevidas.
Nesses casos, o problema jurídico central é a coletivização da suspeita: todos são monitorados, independentemente de estarem sob investigação formal, o que afronta garantias constitucionais de liberdade e privacidade. Deste modo, os riscos são elevados: falsos positivos podem levar a prisões arbitrárias, abordagens violentas e estigmatização social, como mostram casos de idosos, mulheres grávidas e cidadãos inocentes detidos indevidamente.
A segunda forma é o uso em investigações criminais, quando imagens de câmeras de segurança ou registros de ocorrências são submetidos a tecnologias de reconhecimento facial que cruzam dados com bancos estatais. Nesse cenário, a flexibilização atinge diretamente o devido processo legal e a presunção de inocência. O algoritmo não produz certeza, mas apenas um índice probabilístico de correspondência. Tomar essa probabilidade como suficiente para indiciar, denunciar ou condenar alguém significa aceitar uma prova frágil e opaca como se fosse prova robusta, o que contraria princípios constitucionais. Além disso, a ausência de transparência sobre os algoritmos utilizados e sobre os bancos de dados empregados agrava o risco de erros e dificulta a responsabilização do Estado.

Embora distintas, ambas as modalidades convergem em um ponto central: a normalização da flexibilização de direitos fundamentais em nome de uma eficiência não comprovada. Se na vigilância em tempo real é a vigilância indiscriminada e altas probabilidades de falsos positivos e erros, na investigação é a solidez do processo penal. Em ambos os casos, a tecnologia ameaça mais do que protege.
O direito à privacidade e a proteção de dados
A Constituição assegura a inviolabilidade da intimidade, da vida privada e da imagem (artigo 5º, X), bem como a liberdade de locomoção (artigo 5º, XV). Com a EC nº 115/2022, a proteção de dados pessoais foi elevada a direito fundamental autônomo (artigo 5º, LXXIX), o que impõe ao Estado um dever reforçado de garantir que qualquer tratamento de informações sensíveis respeite a legalidade, a proporcionalidade e a transparência. O reconhecimento facial em espaços públicos, ao capturar e processar imagens de todos indiscriminadamente, converte a cidade em um espaço de vigilância massiva, sem base legal clara e em violação frontal desse direito fundamental.
A Lei Geral de Proteção de Dados (Lei 13.709/2018) classifica dados biométricos como sensíveis, exigindo finalidade específica, base legal e proporcionalidade. No entanto, os sistemas hoje instalados carecem de transparência, não passam por avaliações de impacto e não oferecem garantias de descarte de informações, contrariando a LGPD e, agora, também o texto constitucional.
As consequências são concretas. Em São Paulo, uma mulher grávida foi falsamente identificada em uma Unidade Básica de Saúde, detida e acabou sofrendo um parto prematuro [3]; em outro episódio, um idoso de 80 anos permaneceu horas preso por erro de correspondência [4]. Esses casos demonstraram como a política, além de custosa, expõe cidadãos a danos diretos à dignidade e à liberdade. Além disso, tais falhas comprometem diretamente o devido processo legal e a ampla defesa, princípios fundamentais do Estado Democrático de Direito.
Processo penal e devido processo legal
Não é novidade que o sistema de justiça criminal brasileiro atinge de forma desproporcional pessoas negras e pobres [5]. Essa realidade reflete a herança de uma sociedade historicamente marcada pela desigualdade racial e pela permanência de estruturas oriundas do período colonial e escravocrata.
A esse cenário soma-se o fato de que as tecnologias de reconhecimento facial são, em última instância, produtos do trabalho humano. Isso significa que os algoritmos que as compõem podem reproduzir e até amplificar os vieses existentes na sociedade. O mito da neutralidade tecnológica — a crença de que sistemas automatizados são infalíveis ou isentos de preconceitos — tem se mostrado equivocado. O que se observa, na prática, é a reprodução de falhas históricas, recaindo novamente sobre corpos negros e pobres, agora sob a aparência de objetividade técnica.
Diante disso, é imprescindível que o uso de tecnologia de reconhecimento facial esteja submetido aos princípios do devido processo legal. Enquanto formas tradicionais de reconhecimento, como o fotográfico e o pessoal, contam com procedimentos e salvaguardas — ainda que insuficientes —, o reconhecimento facial feito por meio de algoritmos biométricos permanece sem regulamentação uniforme. Essa lacuna normativa faz com que cada estado e município adote seus próprios critérios, sem qualquer padronização ou controle centralizado, o que amplia o risco de arbitrariedades e erros judiciais.
O Cesec identificou ainda que, em diversos casos, a gestão de dados biométricos é realizada em parceria com empresas privadas, sem a devida comunicação à Autoridade Nacional de Proteção de Dados (ANPD). O estudo apontou uma série de irregularidades, como: coleta de dados sem fundamento jurídico claro; ausência de consentimento informado (inclusive por meio de dados extraídos de redes sociais); falta de mecanismos que assegurem segurança, transparência e auditabilidade; inexistência de informações sobre os bancos de dados utilizados para o treinamento dos algoritmos; e a omissão de avaliações de impacto à proteção de dados pessoais (DPIA), conforme exige a legislação.
A ausência de transparência sobre o funcionamento dos sistemas e o uso dos dados biométricos impede que o cidadão compreenda e conteste as provas produzidas contra si, comprometendo a legitimidade do processo penal e aprofundando desigualdades históricas já enraizadas na sociedade brasileira.
Eficiência administrativa e responsabilidade
Embora a tecnologia de reconhecimento facial seja frequentemente apresentada como uma ferramenta de modernização e eficiência administrativa, sua implementação levanta questionamentos importantes sobre custo-benefício e responsabilidade pública. De acordo com dados do Panóptico, mais de R$ 160 milhões já foram investidos em diferentes estados para a adoção desses sistemas, sem que haja comprovação consistente de sua efetividade na prevenção ou resolução de crimes.
Além da dúvida sobre sua real eficiência, há uma preocupação crescente quanto à responsabilidade no tratamento dos dados. Como as tecnologias são, em sua maioria, desenvolvidas e operadas por empresas privadas, isso implica que informações biométricas de milhares de cidadãos acabam sob a guarda de agentes externos ao Estado. A falta de transparência quanto à forma como esses dados são armazenados, compartilhados e utilizados reforça o risco de violações de privacidade e uso indevido das informações.
Essas questões conduzem a reflexões inevitáveis: as pessoas realmente se sentem mais seguras com a presença dessas tecnologias? Para onde vão os dados coletados? Com quem são compartilhados? As empresas responsáveis fazem uso dessas informações para outros fins? São perguntas que, até o momento, permanecem sem respostas claras — e que evidenciam a necessidade de pontuar que a suposta eficiência tecnológica deve estar atrelada com responsabilidade ética e institucional no tratamento de dados pessoais.
O princípio da proporcionalidade
Considerando que o princípio da proporcionalidade abrange os conceitos de adequação, necessidade e proporcionalidade em sentido estrito, a adoção de tecnologias de reconhecimento facial pelo poder público deve ser analisada sob o prisma dos princípios que norteiam a legitimidade das restrições a direitos fundamentais em um Estado Democrático de Direito.
A adequação refere-se à capacidade de a medida atingir o objetivo pretendido. Conforme já apontado, há dúvidas se essas tecnologias representam de fato um avanço na persecução penal. A questão da margem de erro e discriminação agrava ainda mais o problema, principalmente considerando que as falhas ocorrem em especial contra pessoas negras e mulheres. A pesquisa do Panóptico aponta que 90% das pessoas presas com o uso dessa tecnologia em 2019 eram negras, acusadas de crimes sem uso de violência. E em entrevista ao Brasil de Fato, Pablo Nunes, coordenador de Cesec, ainda apontou que os algoritmos erram 34% mais com mulheres negras do que com homens brancos [6]. Esse padrão de erro não apenas compromete a eficácia da tecnologia, mas também reforça práticas discriminatórias, tornando seu uso desproporcional e atentatório à dignidade humana.
Quanto à necessidade, exige-se que a medida escolhida seja a menos restritiva possível para alcançar o mesmo resultado. Caso existam alternativas menos invasivas — como o reforço do policiamento comunitário, a melhoria da iluminação pública ou o uso de câmeras comuns —, a utilização de tecnologias de reconhecimento facial torna-se desnecessária e, portanto, ilegítima sob a ótica constitucional.
A proporcionalidade em sentido estrito envolve a ponderação entre os benefícios esperados e os prejuízos causados aos direitos individuais. Nesse equilíbrio, deve-se verificar se o ganho em segurança pública justifica a restrição à privacidade, à liberdade e à autodeterminação informativa dos cidadãos. Quando os riscos de abuso, discriminação e vigilância excessiva superam os eventuais ganhos de eficiência, a medida perde sua razoabilidade e fere a proporcionalidade.
Nesse sentido, a invasão de privacidade decorrente da coleta massiva e indiscriminada de dados biométricos em espaços públicos — muitas vezes sem consentimento — representa uma afronta direta ao direito à privacidade e à proteção de dados pessoais. A vigilância constante transforma o espaço público em ambiente de controle, minando a confiança e a liberdade de locomoção dos cidadãos.
Além disso, o risco de desvio de finalidade é real e preocupante. Dados coletados sob a justificativa de segurança podem ser utilizados para outras finalidades, como monitoramento político, perseguições indevidas ou investigações civis, configurando abuso de poder e violação direta ao princípio da proporcionalidade.
Conclusão
Assim, torna-se evidente que a utilização de tecnologias de reconhecimento facial exige regulamentação específica, capaz de assegurar o equilíbrio entre o avanço tecnológico e a proteção dos direitos fundamentais. A ausência de normas claras quanto aos limites de uso, critérios de armazenamento e compartilhamento de dados e mecanismos de controle institucional abre espaço para arbitrariedades, violações e discriminações estruturais.
É imprescindível que qualquer política pública que envolva o tratamento de dados biométricos seja pautada pela transparência, permitindo que a sociedade tenha acesso às informações sobre o funcionamento dos sistemas, os contratos firmados com empresas privadas e os resultados obtidos. Do mesmo modo, faz-se necessária a criação de mecanismos independentes de fiscalização e auditoria, aptos a verificar a legalidade, a proporcionalidade e a efetividade dessas tecnologias.
Somente por meio de uma regulamentação sólida, com responsabilização clara de agentes públicos e privados, será possível garantir que a TRF opere dentro dos limites democráticos, servindo de instrumento para a segurança pública e não de ameaça à liberdade, à igualdade e à privacidade dos cidadãos.
[1] Ver mais em: NUNES, Pablo et al. Mapeando a vigilância biométrica[livro eletrônico]: levantamento nacional sobre o uso do reconhecimento facial na segurança pública. Rio de Janeiro: CESeC, 2025.
[5] O Anuário Brasileiro de Segurança Pública contabilizou 909.594 pessoas presas em 2024, sendo que 68,7% dessas eram negras. Disponível aqui
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login