O Supremo Tribunal Federal deu um passo importante na afirmação de direitos humanos no ambiente digital: estabeleceu a exigência de que as redes sociais observem o devido processo na moderação de conteúdo [1]. Ao julgar parcialmente inconstitucional o artigo 19 do Marco Civil da Internet, a Corte entendeu serem necessárias previsões legais mais robustas para a proteção de usuários e da democracia frente ao atual papel das plataformas digitais.
Vários pontos do resultado do julgamento têm recebido a devida atenção da mídia e de especialistas [2], sobre importantes questões em aberto [3] e potenciais problemas [4]. Em paralelo, no entanto, é preciso destacar um ponto positivo, que tem sido objeto central de nossas pesquisas sobre moderação de conteúdo.
Com parte dos deveres adicionais, o Supremo fixou a tese vinculante de que, “para dar efetividade às regras de responsabilização, as plataformas devem (…) criar regras próprias para (…) implementar um devido processo que permita que os usuários entendam os fundamentos das decisões de remoção e possam recorrer” [5]. Trata-se da determinação de que os provedores de aplicações devem instituir políticas de autorregulação que incluam, obrigatoriamente, entre outros pontos, o respeito ao devido processo. Tal exigência implica o reconhecimento da urgência de um modelo procedimental mais justo, nítido e acessível para a moderação de conteúdo online.
Processo legal
O devido processo legal é um princípio jurídico tradicional, previsto na Constituição, que abarca o direito ao contraditório e à ampla defesa em processos administrativos e judiciais conduzidos pelo poder público. Em favor da sua maior efetividade no contexto da sociedade da informação, deve-se também exigir a sua aplicação frente aos entes privados no âmbito da internet, fortalecendo a constitucionalização da internet.
O devido processo, nesse cenário, não é apenas uma garantia jurídica abstrata: é um conjunto mínimo de exigências que assegura previsibilidade, legitimidade e confiança na forma como medidas de moderação são tomadas pelas plataformas. É, portanto, um princípio normativo fundamental para proteger os usuários em face do crescente poder das big techs na definição do que pode ou não ser publicado ou removido da Internet.
Nesse sentido, o Instituto de Referência em Internet e Sociedade (Iris) tem defendido que o devido processo seja incorporado como um princípio normativo autônomo nas discussões regulatórias sobre redes sociais. A aplicação dessa garantia constitucional à moderação de conteúdo é essencial para ampliar a transparência, aprimorar os mecanismos de prestação de contas e proteger direitos fundamentais como a liberdade de expressão, o acesso à informação e o uso profissional das plataformas.
Spacca

Análise de decisões
Em pesquisa recente [6], analisamos 191 decisões judiciais em cinco tribunais estaduais do Brasil. Descobrimos que, embora poucos juízes mencionem explicitamente o devido processo, em mais de 90% dos casos as fundamentações das decisões contemplam seus elementos centrais, como a necessidade de notificação, fundamentação e direito a recurso. Ou seja, há uma prática judicial difusa que já reconhece, mesmo que de forma implícita, a legitimidade desses procedimentos.
Antes, um estudo com 449 reclamações de usuários sobre plataformas de redes sociais apontou na mesma direção: [7] a ausência de regras nítidas, de canais acessíveis para recurso e de justificativas fundamentadas para as medidas de moderação estão no centro das frustrações dos usuários. A exigência de relatórios de transparência, também incluída na tese do STF, só será efetiva se trouxer dados verificáveis e informações úteis sobre os processos decisórios internos das plataformas.
Processo de moderação
Nesse contexto, o IRIS propõe que a positivação do devido processo na moderação — desde a normatização a ser elaborada até a prática a ser implementada — inclua ao menos cinco elementos fundamentais: decisões fundamentadas e contextualizadas; notificação nítida e tempestiva a quem publicou o conteúdo moderado; definição de prazos razoáveis para recurso; mecanismos simples e acessíveis para contestação; e design amigável e inclusivo dos instrumentos de moderação. Tais garantias são cruciais para reduzir a judicialização de conflitos, prevenir abusos e democratizar o ambiente digital.
A decisão do STF, portanto, abre caminho para que o devido processo deixe de ser uma aspiração e se torne um padrão normativo obrigatório na governança das plataformas digitais. Exigir respeito a essa garantia não é apenas proteger usuários: é também orientar políticas públicas, trazer previsibilidade para empresas e fortalecer os alicerces de uma internet mais justa, democrática e comprometida com os direitos humanos.
[1] CAVALCANTE, Isabella. Supremo fixa tese sobre responsabilização de plataformas por conteúdo de usuários. Consultor Jurídico, 26 jun. 2025. Disponível em: https://www.conjur.com.br/2025-jun-26/supremo-fixa-tese-sobre-responsabilizacao-de-plataformas-por-conteudo-de-usuarios/. Acesso em: 04 jul. 2025.
[2] GUIMARÃES, Bernardo Strobel; MEDEIROS, Lucas Sipioni Furtado de; BRAZ, Thales do Valle. O STF e a responsabilidade civil das plataformas digitais por conteúdos de terceiros. Consultor Jurídico, 04 jul. 2025. Disponível em: https://www.conjur.com.br/2025-jul-04/o-stf-e-a-responsabilidade-civil-das-plataformas-digitais-por-conteudos-de-terceiros/. Acesso em: 04 jul. 2025
[3] LOBATO, Rafaela. STF preenche vazio legislativo e redefine responsabilidade das big techs. Consultor Jurídico, 01 jul. 2025. Disponível em: https://www.conjur.com.br/2025-jul-01/stf-preenche-o-vazio-legislativo-e-redefine-a-responsabilidade-das-big-techs-no-brasil/. Acesso em: 04 jul. 2025
[4] OIKAWA, Andrezza Hautsch. O ‘supremolegislativo’ e a responsabilidade das redes sociais. Consultor Jurídico, 30 jun. 2025. Disponível em: https://www.conjur.com.br/2025-jun-30/o-supremolegislativo-e-a-responsabilidade-das-redes-sociais/. Acesso em: 04 jul. 2025
[5] BRASIL. Supremo Tribunal Federal. Informação à Sociedade: RE 1.037.396 (Tema 987) e 1.057.258 (Tema 533) – Responsabilidade de plataformas digitais por conteúdo de terceiros. Relatores: Min. Dias Toffoli; Min. Luiz Fux. Tribunal Pleno. Julg. 26 jun. 2025. STF, 30 jun 2025. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/Informac807a771oa768 SociedadeArt19MCI_vRev.pdf. Acesso em: 04 jul. 2025.
[6] SILVA, Fernanda dos Santos Rodrigues; DUTRA, Luiza Correa de Magalhães; SANTARÉM, Paulo Rená da Silva. Decisões judiciais sobre o devido processo na moderação de conteúdo em redes sociais: como julgam os magistrados. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2025. Disponível em: https://irisbh.com.br/publicacoes/decisoes-judiciais-sobre-o-devido-processo-na-moderacao-de-conteudo/. Acesso em: 04 jul. 2025
[7] SILVA, Fernanda dos Santos Rodrigues; GERTRUDES, Júlia Maria Caldeira; DUTRA, Luiza Correa de Magalhães; SILVA, Rafaela Ferreira Gonçalves da. Reclamações sobre o procedimento de moderação de conteúdo em redes sociais: o que pensam os usuários. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2024. Disponível em: https://irisbh.com.br/publicacoes/reclamacoes-sobre-o-procedimento-de-moderacao-de-conteudo-em-redes-sociais-o-que-pensam-os-usuarios/. Acesso em: 04 jul. 2025.
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login