Pesquisar
Opinião

Deepfakes, provas digitais e fraudes no INSS: colapso da confiança

Imagine um vídeo de um réu confessando um crime. Ou uma selfie usada para liberar um benefício previdenciário. E se essas imagens forem falsas — mas indistinguíveis da realidade?

Rafa Neddermeyer/Agência Brasil

Rafa Neddermeyer/Agência Brasil

Esse é o impacto dos deepfakes: vídeos e áudios manipulados por inteligência artificial para simular rostos, vozes e falas reais. Em 2025, essa tecnologia está disponível em aplicativos gratuitos, acessível a qualquer usuário comum. Especialistas alertam: entramos numa era de risco epistêmico, em que até evidências aparentemente objetivas se tornam suspeitas.

O filósofo Bismarck Medeiros define esse fenômeno como “apocalipse epistêmico”: o colapso da confiança nas fontes de informação audiovisual. Um colapso que afeta diretamente o Judiciário, o INSS, o jornalismo e qualquer sistema que dependa de autenticidade para funcionar.

Quando a prova digital vira dúvida

Em 2024, a 5ª Turma do Superior Tribunal de Justiça decidiu que prints de tela e imagens digitais extraídas sem metodologia adequada não têm validade como prova. Segundo o acórdão, “é ônus do Estado comprovar a integridade e a confiabilidade das fontes de prova, inclusive quando elas tiverem natureza digital” (STJ, HC 773.074/MG).

O Judiciário tem reconhecido que provas digitais exigem cadeia de custódia formalizada e verificação técnica. Sem isso, a justiça se torna vulnerável a manipulações sofisticadas — incluindo as feitas por IA.

Direito ainda está atrasado

O Brasil ainda não possui uma tipificação penal autônoma para a criação ou uso doloso de deepfakes. O PL 2.630/2020, conhecido como Lei das Fake News, trata da responsabilidade das plataformas, mas não criminaliza diretamente a manipulação audiovisual com IA.

Já o PL 2.338/2023, que institui o marco legal da inteligência artificial, prevê classificações de risco e princípios de confiabilidade, mas ainda está em tramitação.

Spacca

Spacca

Enquanto isso, crimes com deepfakes são enquadrados em tipos genéricos como calúnia, falsidade ideológica ou estelionato — sem que a gravidade da simulação algorítmica seja reconhecida como conduta penal autônoma.

Fraudes no INSS: imagens reais hoje, deepfakes amanhã

No campo previdenciário, os golpes evoluem com rapidez. Criminosos já têm se passado por funcionários do INSS para visitar beneficiários em casa, coletar documentos, selfies e vídeos, alegando falsamente que se trata da “prova de vida” obrigatória (G1, 3/5/2024).

Essas visitas são golpes. O INSS não realiza visitas espontâneas para prova de vida, nem ligações para convocar beneficiários, como alertou novamente o governo em 2025 (G1/Fato ou Fake, 7/5/2025).

O objetivo dos fraudadores é capturar dados legítimos — fotos, vídeos, áudios — para desbloquear benefícios ou contratar empréstimos indevidamente. Por ora, essas fraudes envolvem imagens reais, obtidas com dolo. Mas a tendência é que essas bases de dados alimentem, em breve, deepfakes hiper-realistas.

O golpe poderá evoluir de um vídeo verdadeiro para um vídeo sintético — com rosto, voz e frase da vítima, gerados artificialmente com IA.

O que pode ser feito

Exigir cadeia de custódia digital e perícia técnica para todas as provas visuais e sonoras. Implantar duplo fator de autenticação em sistemas públicos e bancários. Promover campanhas de alerta à população sobre fraudes com coleta de imagem e voz.

Acelerar a aprovação de marcos regulatórios como os PLs 2.630 e 2.338. E, sobretudo, reconhecer no ordenamento jurídico que a falsificação algorítmica de identidade é um novo tipo penal que defendo, necessário para a era digital. Esse tipo protege a autenticidade da identidade, a fé pública e a confiança institucional. Ele criminaliza o uso de inteligência artificial para simular, com aparência real, a identidade de terceiros, para fraudes, enganos ou prejuízo.

O risco é iminente

Deepfakes deixaram de ser ficção científica. Já interferem em eleições, reputações e investigações. E agora, ameaçam um dos pilares da cidadania: a confiança em sistemas públicos de prova, justiça e previdência.

Se a prova não é mais confiável, a decisão deixa de ser justa.

E se a verdade pode ser simulada, o Direito precisa ser restaurado como realidade confiável.

 


Referências

ALMEIDA, Daniella. INSS alerta sobre canais oficiais de atendimento. Brasília, DF: EBC, 2025. Disponível aqui.

CÂMARA DOS DEPUTADOS. PL 2630/2020. Institui a Lei Brasileira de liberdade, responsabilidade e transparência na Internet. Disponível aqui.

G1. É #FAKE que INSS faça ligação telefônica convocando para prova de vida. [S. l.]: G1, 2025. Disponível aqui.

MEDEIROS, Bismarck Bório de. Pós-verdade e aspectos epistêmicos das mídias sociais: análises, críticas e proposições. Revista Sapere aude, Belo Horizonte, v. 14, n. 28, p. 492-522, jul./dez. 2023. Disponível aqui.

RESENDE, Thiago. INSS alerta contra golpe de visita em casa para prova de vida. Brasília, DF: TV Globo, 2025. Disponível aqui.

SENADO FEDERAL. Projeto de Lei nº 2338 de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível aqui.

SUPERIOR TRIBUNAL DE JUSTIÇA. Quinta turma não aceita como provas prints de celular extraídos sem metodologia adequada. Brasília, DF: STJ, 2024. Disponível aqui.

 

Referências complementares

HEYGEN. Los Angeles: HeyGen, [202-?]. Disponível aqui.

PIKA LABS. [S. l. : s. n.], [202-?]. Disponível aqui.

SYNTHESIA. Londres: Sintesya Ltd, [202-?]. Disponível aqui.

Cacyone Gomes

é advogada e jornalista. Doutoranda na Faculdade de Direito do Recife (UFPE). Membra da comissão especial de proteção de dados OAB Nacional. Pesquisadora laboratório de inteligência artificial do Cedis/IDP. Especialista em privacidade e proteção de dados, inteligência artificial e ciência de dados.

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.