Pesquisar
Opinião

Experiência europeia pode ajudar no combate à erotização infantil

No último dia 6 de agosto o influenciador digital Felipe Bressanim Pereira, mais conhecido como Felca, lançou um vídeo de forte impacto em seu canal.

Com quase 30 milhões de visualizações em poucos dias, a publicação denuncia uma realidade alarmante: a “adultização” de crianças e adolescentes nas redes sociais, amplificada por algoritmos que, sem filtro ético, direcionam consumo de conteúdos cada vez mais sexualizantes e predatórios.

Felca expôs influenciadores como Hytalo Santos e casos concretos de exploração precoce, evidenciando como o engajamento digital alimenta um ciclo perverso de abuso e erotização infantil.

A denúncia não se limitou a apontar comportamentos individuais: Felca demonstrou, passo a passo, que o problema estava nas próprias engrenagens das plataformas. Ao criar uma conta nova e interagir minimamente, os algoritmos de recomendação passaram a inundá-lo com conteúdos sexualizados envolvendo menores, perfis que serviam como ponto de encontro para predadores, códigos para troca de material ilícito e links para grupos privados.

A repercussão foi imediata.

Em meio à indignação pública, o presidente da Câmara dos Deputados, Hugo Motta, anunciou a priorização de projetos contra a “adultização” infantil nas redes. Mas o episódio revelou algo mais profundo: a raiz do problema não está apenas no “post” ilegal ou no criador de conteúdo imprudente, e sim nos sistemas algorítmicos que identificam, impulsionam e potencializam padrões perigosos.

‘Erotização infantil’ no ambiente algorítmico

No contexto digital contemporâneo, a erotização infantil no ambiente algorítmico apresenta-se como um fenômeno de múltiplas camadas, que exige análise atenta sob a perspectiva jurídica, tecnológica e de direitos humanos.

Evelyn Kosta/TV Globo

Evelyn Kosta/TV Globo

A primeira camada refere-se à exposição involuntária de crianças a conteúdos sexualizantes, a exemplo do episódio conhecido como “Elsagate”, onde ficou revelado que algoritmos de recomendação, ao sugerirem vídeos aparentemente adequados para o público infantil, podem direcionar crianças para conteúdos com cenas sexualizadas ou ilegais. Nesse caso, a mera segmentação de conteúdo não garante, por si só, a proteção contra a exposição indevida, sendo necessário o desenvolvimento de mecanismos robustos de moderação e filtragem.

A segunda camada do problema envolve a amplificação algorítmica de tendências e buscas sexualizantes. Pesquisas recentes identificam que sistemas de recomendação têm o potencial de intensificar conteúdos misóginos, estereotipados ou sexualizantes, afetando diretamente adolescentes através do reforço de padrões prejudiciais [1].

A questão é simples: a lógica de maximização de engajamento inerente a tais sistemas favorece a recorrência e a normalização de conteúdos dessa natureza, criando um ambiente hostil à integridade psíquica e moral de crianças e adolescentes.

A terceira e última camada diz respeito à facilitação de material de abuso sexual infantil (CSAM), incluindo aquele gerado pela própria vítima sob coação ou manipulação. Tudo isso se torna ainda mais grave com o advento de tecnologias de inteligência artificial capazes de criar imagens e vídeos sintéticos de abusos.

Com efeito, a interseção entre a erotização infantil e a capacidade algorítmica de promover, direta ou indiretamente, tais conteúdos configura uma ameaça complexa, que ultrapassa a esfera técnica e demanda, portanto, respostas normativas rigorosas, coordenação interinstitucional e estratégias de educação digital para prevenção e mitigação de riscos.

Diretrizes da Comissão Europeia de 14 de julho de 2025

O avanço e a popularização das plataformas online entre menores de 18 anos têm proporcionado benefícios significativos, como acesso a recursos educacionais, desenvolvimento de habilidades sociais e estímulo à criatividade.

Contudo, estudos e pareceres de formuladores de políticas, órgãos reguladores, pesquisadores e sociedade civil apontam que o nível atual de proteção, privacidade e segurança desses usuários é insuficiente, expondo-os a riscos como conteúdo ilegal e nocivo, cyberbullying, exploração sexual, tráfico humano, radicalização, práticas comerciais abusivas e impactos decorrentes de tecnologias emergentes, como chatbots e deepfakes baseados em inteligência artificial [2].

Diante desse cenário, em julho de 2025 houve a publicação de diretrizes oficiais da Comissão Europeia orientadas pelo artigo 28 do Regulamento (UE) 2022/2065, propondo um conjunto de medidas — incluindo aumento da privacidade de contas, verificação etária e ajustes em sistemas de recomendação, governança e suporte ao usuário — com o objetivo de mitigar ameaças e garantir um elevado nível de proteção, segurança e respeito à privacidade dos menores no ambiente digital, consolidando tal proteção como prioridade política da União Europeia.

As orientações constantes nas diretrizes partem de uma perspectiva sistêmica, conjugando obrigações já previstas para provedores de serviços intermediários e plataformas online com parâmetros técnicos, procedimentais e organizacionais de caráter complementar, alinhados ao princípio do melhor interesse da criança (artigo 3 da Convenção sobre os Direitos da Criança da ONU) e a instrumentos de proteção internacional, como os Comentários Gerais nº 25 do Comitê dos Direitos da Criança e as diretrizes do Unicef para ambientes digitais seguros.

No tocante à moderação de conteúdo, as diretrizes preveem a adoção de políticas internas claras, revisadas periodicamente, e voltadas à prevenção e mitigação de conteúdos e condutas nocivas à privacidade, segurança e integridade de menores.

Do documento mencionado, extrai-se que a moderação deve ser estruturada a partir de um modelo híbrido, combinando mecanismos automatizados — como filtragem por hash matching e detecção de padrões — e revisão humana qualificada, com prioridade às denúncias formuladas por menores e àquelas com potencial de risco imediato.

Ademais, exige-se capacitação contínua de moderadores, adoção de critérios transparentes e cooperação interplataformas, reforçando uma governança digital colaborativa e articulada com autoridades regulatórias e entidades da sociedade civil.

Os mecanismos de denúncia, feedback e reclamações são concebidos como instrumentos centrais de tutela preventiva e corretiva. Ficou determinado que esses instrumentos de controle sejam visíveis, intuitivos e adaptados à faixa etária, preservando, assim, a confidencialidade por padrão e permitindo que o menor expresse desconforto ou rejeição a conteúdos, interações ou funcionalidades.

No caso da realidade europeia, a resposta às reclamações deve ser tempestiva, acompanhada de explicação acessível e possibilidade de acompanhamento do trâmite. Os dados devem alimentar ajustes contínuos na arquitetura da plataforma, incluindo sistemas de recomendação e políticas de moderação, em consonância com o artigo 16 e seguintes do DSA.

O Digital Services Act (DSA) é o Regulamento (UE) 2022/2065, aprovado pelo Parlamento Europeu e pelo Conselho da União Europeia em 19 de outubro de 2022 e publicado no Official Journal of the European Union em 27 de outubro de 2022.

Outra contribuição decisiva diz respeito à necessidade de medidas de suporte ao usuário mediante extensão à disponibilização de canais imediatos de assistência, funções de bloqueio, silenciamento e restrição de comentários ou convites a grupos, bem como referências a linhas de apoio nacionais, especialmente quando detectada a interação com material ilícito ou prejudicial.

Quanto às ferramentas para responsáveis legais, as diretrizes reforçam que seu uso deve ser complementar às medidas de segurança por design, vedada sua utilização como único mecanismo de proteção.

No eixo de governança as diretrizes apontam para criação de estruturas organizacionais específicas, com autoridade decisória e recursos adequados, responsáveis por coordenar as ações de proteção infantil.

No campo do monitoramento e avaliação, as diretrizes preveem consultas regulares a menores, responsáveis, especialistas e organizações sociais, incorporando diversidade cultural, linguística e de necessidades especiais.

Inconteste que a transparência é tratada como elemento nuclear no assunto em debate, impondo a divulgação acessível de informações sobre métodos de verificação de idade, funcionamento de algoritmos de recomendação, processos de moderação, mecanismos de denúncia e demais recursos, com apresentação gradual e visualmente atrativa, adaptada à compreensão do público infanto-juvenil.

Por derradeiro, restou estabelecido a obrigatoriedade de revisão das diretrizes em até 12 meses, levando em conta a experiência prática, as inovações tecnológicas e as mudanças normativas e sociais. Este processo deverá ser conduzido de forma participativa, envolvendo provedores, autoridades nacionais, comunidade acadêmica e sociedade civil, de modo a assegurar a atualização e a eficácia contínua das medidas, preservando-se a centralidade da proteção integral de menores no ecossistema digital.

Sugestões de ações práticas para o Brasil

Considerando as diretrizes europeias previstas no Digital Services Act (DSA) e o contexto normativo brasileiro, em que ainda não existe regulação específica voltada exclusivamente à proteção de menores no ambiente digital, esse texto propõe um conjunto de ações práticas aplicáveis ao Brasil.

No plano legislativo, seria recomendável a criação de uma lei específica para segurança digital de menores, a partir da atualização do Marco Civil da Internet (Lei nº 12.965/2014) e do Estatuto da Criança e do Adolescente (Lei nº 8.069/1990).

A legislação brasileira precisa amadurecer e contemplar princípios de segurança por concepção (safety by design) e privacidade por padrão (privacy by default), assegurar opções de navegação sem personalização de conteúdo para menores, prever prazos céleres para resposta a denúncias de conteúdo nocivo e exigir explicações claras e adequadas à idade sobre o funcionamento de algoritmos. Nesse contexto, inegociável o estabelecimento de sanções proporcionais e progressivas, vinculadas ao faturamento das empresas, nos moldes do que ocorre com o GDPR e o próprio DAS europeu.

No campo administrativo e de fiscalização, seria pertinente a criação de um órgão nacional especializado, possivelmente no âmbito da Autoridade Nacional de Proteção de Dados (ANPD) ou em parceria com o Ministério da Justiça, para monitorar plataformas e elaborar guias técnicos baseados nos 5Cs europeus (conteúdo, contato, conduta, contrato e práticas comerciais).

No âmbito da proteção de menores no ambiente digital, o modelo europeu de análise de riscos frequentemente adota a classificação conhecida como “5Cs” — Content, Contact, Conduct, Contract e Commercialism — desenvolvida inicialmente no projeto EU Kids Online e posteriormente adaptada em diversos estudos de regulação. Essa tipologia identifica cinco vetores de risco que plataformas online devem considerar no desenho de seus serviços, sendo reconhecida como referência pela Comissão Europeia para a implementação de medidas previstas no artigo 28(1) do Regulamento (UE) 2022/2065 (Digital Services Act).

O primeiro vetor, Content, diz respeito à exposição a conteúdos prejudiciais ou ilegais, como pornografia infantil, discurso de ódio, violência gráfica ou informações nocivas à saúde física ou mental. O Contact envolve interações indesejadas ou abusivas com outros usuários, como assédio, grooming ou aliciamento. O Conduct refere-se ao comportamento do próprio menor em ambiente digital, incluindo a publicação de informações sensíveis ou participação em práticas perigosas. O Contract abrange a vulnerabilidade do menor em relações contratuais digitais, como aceite de termos abusivos, inscrição inadvertida em serviços pagos ou exposição a cláusulas desproporcionais. Por fim, o Commercialism trata das práticas comerciais dirigidas a crianças e adolescentes, especialmente a publicidade comportamental, técnicas de persuasão algorítmica e monetização de dados pessoais.

No aspecto corporativo, as plataformas digitais que atendem menores deveriam adotar protocolos internos obrigatórios, que incluem ferramentas simples para denúncias anônimas, sistemas de bloqueio e remoção célere de conteúdo nocivo, comunicação clara sobre o funcionamento de recomendações de conteúdo e limitação de práticas publicitárias direcionadas a menores.

A transparência algorítmica é outro ponto que merece profunda atenção e reflexão. Ela deve ser adaptada, com painéis de controle acessíveis capazes de permitir a compreensão do porquê determinado conteúdo é exibido e possibilitem ajustes pelo próprio usuário ou seu responsável legal. Isso é fundamental!

Já no eixo educacional e social, seria indispensável o desenvolvimento de programas de alfabetização digital para crianças, adolescentes, pais e responsáveis, capacitando-os para compreender riscos online, gerir privacidade e utilizar ferramentas de segurança. Campanhas públicas regulares, inspiradas em iniciativas como o “Safer Internet Day” da União Europeia, e a participação de educadores e influenciadores digitais poderiam ampliar o alcance e a eficácia dessas ações, criando uma cultura nacional de uso seguro e consciente da internet.

 


[1] DONOVAN, Joan; FRIEDBERG, Brian. Digital Gatekeepers: Google’s Role in Curating Hashtags and Subreddits. Data & Society Research Institute, 2019.

[2] UNIÃO EUROPEIA. Comissão Europeia. Diretrizes sobre medidas para assegurar um elevado nível de privacidade, segurança e proteção de menores online, nos termos do Artigo 28(4) do Regulamento (UE) 2022/2065. Bruxelas, 14 jul. 2025.

Davi Tavares Viana

é advogado, doutorando em Direito (Fadisp), mestre em Direito (UFPB) e especialista em Direito Civil e Processo Civil (Unipê).

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.