Pesquisar
Criminal Player

Como usam sua selfie para abrir contas por meio do reconhecimento facial

A digitalização das relações sociais impõe ao operador do Direito novos desafios, à medida que o crime migra do mundo físico para o virtual, atualmente onlife (nem analógico, nem digital; aqui). Tecnologias concebidas, em sua maioria, para fins lícitos vêm sendo desviadas para usos ilícitos, permitindo fraudes eletrônicas, especialmente com o uso de inteligência artificial.

Levi Elizaga/Unplash

Levi Elizaga/Unplash

Um parêntese: a inteligência artificial não é a vilã. Estamos diante de um período de avanços significativos para a humanidade. Da mesma forma que a Revolução Industrial substituiu a força de trabalho humana ao automatizar a força física, a inteligência artificial traz um novo salto: automatiza tarefas da mente humana e as torna mais eficientes. Até mesmo para os agentes criminosos.

Os trapaceiros, em qualquer época, sempre foram hábeis em engenharia social, a arte de induzir a vítima a fornecer informações ou a agir de determinada maneira para favorecer o êxito criminoso. Antes exigia-se maior expertise para, por exemplo, falsificar documentos e conferir verossimilhança à cilada. Não raramente, recomendava-se atenção a sinais grosseiros (erros de português, redação ruim, montagens etc.) como indícios de fraude.

Nos dias que correm, a única habilidade indispensável à fraude continua sendo a engenharia social. Até porque há um grande facilitador: vazamentos massivos de dados que circulam em sites criminosos e em bots de mensageria. Com um clique, o golpista abre um dossiê digital da vítima em potencial: filiação, endereços e telefones (dele e de parentes), rendimentos, redes sociais, e-mails, score de crédito, vacinas tomadas, veículos emplacados e, quando há credenciais expostas, até registros policiais (boletins de ocorrência) e imagens de câmeras de tráfego. Com esse arsenal de facilidades, o que precisa mais? Muito pouco. Veremos.

No crime 4.0, eficiência agora é regra, chega de erros de português. A automação algorítmica tornou isso possível. Campanhas de phishing por e-mail e bots automatizados, gerados por aplicativos de aprendizado de máquina proporcionam, dentre inúmeras possibilidades, recursos empregados para alcançar e convencer novas vítimas, até porque prevalece a ingenuidade digital.

Não bastasse isso, os golpes e fraudes eletrônicas estão entrando em outro patamar. Funciona assim: o criminoso coleta suas fotos públicas e treina um modelo para sintetizar um rosto cujo algoritmo ou assinatura facial (o “vetor” usado pelos sistemas de reconhecimento) seja praticamente idêntico (a máquina aprende a emular você). Com o rosto impostor, mas que atende aos parâmetros dos sistemas de reconhecimento facial, então, cria um documento falso, tira uma “selfie de verificação” e o sistema dá match. Resultado: abre conta, pede crédito, recupera senhas e valida operações como se fosse a vítima, sem que exista uma pessoa real por trás daquela foto, embora o sistema reconheça como sendo você. Depois você tem que provar que não é você.

Quando a selfie já não basta: colapso do reconhecimento fotográfico

Os avanços tecnológicos e a velocidade com que são lançados tornam cada vez mais difícil acompanhar as novidades. Para o usuário comum, trata-se de uma tarefa árdua, que exige tempo e dedicação. Para o legislador, praticamente impossível. Até mesmo a ficção (livros e séries de TV) já não consegue competir em criatividade e agilidade com os cibercriminosos: videoconferência com deepfake e 26 milhões de dólares de prejuízo (aqui); médicos com imagens alteradas e contas digitais invadidas e (aqui); contas GovBR invadidas por by-pass facial (aqui).

Spacca

Spacca

Os rostos sintéticos com o mesmo algoritmo da vítima em um documento (assinatura biométrica) ou a aplicação de técnicas de faceswap (troca de rosto em vídeo) apresentam novos desafios, tanto para as instituições financeiras e outras aplicações de internet com a proteção dos seus usuários, quanto para os órgãos de persecução penal na atribuição da autoria delitiva (no Hugging Face existem várias aplicações free para trocar de rosto — aqui).

Para os bancos e fintechs, a selfie ou apresentação de uma imagem deve ser apenas o início da confirmação de uma identidade, impondo-se camadas adicionais de proteção, sob pena de arcar com prejuízos financeiros consideráveis.

Lá no começo de 2023, deepfakes ainda eram detectadas à primeira vista (defeitos no rosto, mãos estranhas etc.) em face das limitações tecnológicas. Atualmente essa barreira não existe mais: softwares produzem rostos sintéticos e vídeos com realismo suficiente para iludir humanos e (em muitos casos) também as ferramentas de detecção automática. Inserir respiração na voz, sincronizar piscadas e reproduzir microexpressões convincentes já não é barreira. A simulação é difícil de detectar.

Aliado a isto, temos ainda a oferta gratuita de serviços para a criação de rostos sintéticos, os quais são livremente disponibilizados em plataformas de mídias sociais e, em alguns casos, até patrocinados para alcançar um número maior de trapaceiros interessados. O risco aumenta.

O cenário para a fraude foi criado: gera-se uma foto sintética com assinatura biométrica semelhante de terceiro. A imagem é colocada num documento falsificado e uma conta é aberta. O invasor assume a vida digital da vítima, com a plena possibilidade de acessar serviços, contratar créditos e movimentar recursos como se fosse ela ou você.

Nos dados informativos de segurança pública divulgada percebemos a diminuição de vários índices de crimes contra a vida e o patrimônio. A criatividade do cibercrime, invisível e por vezes silencioso, aumenta significativamente os desafios contemporâneos, especialmente quando nem mais o rosto é seu, porque clonado. O roubo de identidade 4.0 está aí. Todo cuidado é pouco, porque a vulnerabilidade é imensa. Novos tempos, com grandes desafios por vir.

Existem alternativas. Lee e Quifam destacam a esta preocupação com os desafios do reconhecimento facial em detrimento da inteligência artificial. Trazem as íris e as digitais humanas como meio eficaz para dar este match. Propõem, até mesmo, a autenticação de vídeos e fotos pela tecnologia blockchain [1].

Michele Wucker sintetiza a lógica de se antecipar a nova realidade de inteligência artificial na sua obra, “O rinoceronte cinza”, ao destacar que “os melhores líderes tomam decisões quando a ameaça ainda está distante, pois quando o perigo se torna evidente, os custos de resposta são muito mais altos e as chances de sucesso, menores”. [2]

Cabe, portanto, à iniciativa privada antecipar-se, criando barreiras de segurança para mitigar os problemas decorrentes das fraudes e golpes eletrônicos. Em tempos de cibercrimedemia, verdade e mentira na quase-verdade da aparência que se confundem cada vez mais, tornando-se quase indistinguíveis.

Já aos órgãos de persecução criminal impõe-se avançar: investir em softwares e hardwares de ponta, mas, sobretudo, capacitar seus quadros. E ainda que o reconhecimento facial se mostre cada vez menos eficaz para a elucidação de determinados casos, outras técnicas investigativas permanecem fundamentais: análise de dados cadastrais, informações bancárias, quebras de sigilo telemático, rastreamento de conexões de internet e, por fim, aquela boa e indispensável diligência de campo: a velha investigação de rua associada à digital (Osint).

Não se trata de acompanhar a tecnologia, apenas. O grande segredo, é sobreviver no mundo digital intangível. No entanto, há como melhorar a segurança pessoal e mitigar os efeitos, mas se você deixar para tomar medidas somente quando seu rosto for clonado, negligenciando a prevenção, então, boa sorte. Precisarás. O rinoceronte cinza digital já está por aí.

_______________________________

P.S. Voltaremos com sugestões em outro texto, por enquanto, há material de apoio em www.delbarrato.app e www.profamr.app

[1] LEE, Kai-Fu; QUIFAN, Chen. 2041: como a inteligência artificial vai mudar sua vida nas próximas décadas. .p.c.86 e 87.

[2] WÜCKER, Michele. O rinoceronte cinza: como reconhecer e agir diante dos perigos óbvios que ignoramos.P 85.

Alesandro Gonçalves Barreto

é delegado de Polícia Civil do estado do Piauí e professor de cursos de Inteligência Cibernética pela Senasp/MJSP e Seopi/MJSP.

Alexandre Morais da Rosa

é juiz de Direito de 2º grau do TJ-SC (Tribunal de Justiça de Santa Catarina) e doutor em Direito e professor da Univali (Universidade do Vale do Itajaí).

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.