Pesquisar
Opinião

Responsabilidade civil no ambiente digital é dever, não opção

Vivemos tempos em que o alcance das plataformas digitais supera a população de qualquer país no planeta. O Facebook tem quase três bilhões de usuários; o WhatsApp, mais de 2 bilhões; o TikTok, 1,5 bilhão. Nenhuma nação no mundo chega perto disso. A China, o país mais populoso, tem pouco mais de 1,4 bilhão de habitantes. Esses números demonstram o tamanho do poder dessas empresas sobre as relações sociais, econômicas, culturais e até políticas. E, frente a esse impacto, é inconcebível que essas plataformas continuem operando sem assumir responsabilidades proporcionais aos riscos e danos que sua atividade gera.

A decisão recente do Supremo Tribunal Federal sobre o artigo 19 do Marco Civil da Internet é um divisor de águas. O tribunal declarou, em sede de repercussão geral, a inconstitucionalidade parcial do dispositivo, justamente por entender que ele não assegurava de maneira adequada a proteção dos direitos fundamentais no ambiente digital. Estamos falando de responsabilidade civil das plataformas digitais. A partir de agora, empresas como Meta, Google, TikTok, X (antigo Twitter) e YouTube estão obrigadas a adotar uma postura ativa na remoção de conteúdos reconhecidamente ilícitos, sob pena de serem responsabilizadas civilmente, inclusive com indenizações.

A lógica anterior, vigente desde 2014, previa que as plataformas só poderiam ser responsabilizadas caso não cumprissem ordem judicial determinando a retirada do conteúdo. Isso criou um ambiente de permissividade: mesmo diante de materiais evidentemente lesivos — como racismo, incitação ao suicídio, pornografia infantil e apologia à violência — as plataformas se escondiam atrás do discurso de que seriam meras “praças públicas”, sem dever de monitoramento ou controle.

O STF corrigiu essa distorção. A partir da decisão, conteúdos que envolvem violações graves, como discurso de ódio, discriminação, violência contra crianças, pornografia infantil, incitação ao suicídio ou qualquer manifestação que atente contra direitos fundamentais, devem ser removidos imediatamente pelas plataformas, independentemente de decisão judicial. Se não o fizerem, respondem civilmente pelos danos causados.

Para os casos de crimes contra a honra, como calúnia, difamação e injúria, o STF estabeleceu um modelo de responsabilidade mitigada. Nesses casos, a plataforma pode optar por aguardar uma decisão judicial, mas também pode — e deve — adotar providências para remover o conteúdo a partir de uma notificação extrajudicial realizada pela própria vítima ou por seu representante legal.

Além disso, a decisão do Supremo trouxe outro avanço indispensável: estabeleceu que as plataformas devem ter sede no Brasil, justamente para que possam ser devidamente responsabilizadas no âmbito da legislação nacional. Hoje, muitas operam sem representação formal no país, o que dificulta, quando não inviabiliza, medidas judiciais e extrajudiciais. O STF também determinou que, até que o Congresso finalmente avance na criação de uma legislação específica, cabe às próprias plataformas desenvolverem protocolos e mecanismos de moderação para cumprimento das diretrizes fixadas na decisão. Esse movimento, vale lembrar, não é isolado. A União Europeia já aprovou, desde 2024, um robusto marco regulatório para as big techs, exigindo transparência algorítmica, responsabilização e proteção aos usuários, o que demonstra que o Brasil está, corretamente, alinhado às discussões globais sobre direitos fundamentais no ambiente digital.

Estamos tratando de responsabilidade civil, não criminal. Isso significa que o centro do debate está nos danos causados às vítimas, sejam danos morais, materiais ou à imagem, e na reparação desses prejuízos. A responsabilização não exige que as plataformas exerçam moderação de conteúdo prévia, mas que cumpram deveres mínimos de diligência, especialmente em relação a conteúdos manifestamente ilícitos.

Decisão civilizatória

As reações das big techs foram imediatas e previsíveis: alegam que a decisão gera “insegurança jurídica”, ameaça a “liberdade de expressão” e coloca o Brasil como um dos países mais hostis ao desenvolvimento digital. Mas esses argumentos não se sustentam. A liberdade de expressão, no ordenamento jurídico brasileiro, nunca foi — e nunca será — um direito absoluto. Como já decidiu o próprio STF em casos paradigmáticos, a manifestação do pensamento encontra limites quando colide com outros direitos fundamentais, como a honra, a dignidade, a saúde mental e a proteção de crianças e adolescentes.

O debate, portanto, não é sobre censura. É sobre responsabilidade. E, mais do que isso, é sobre reconhecer que essas empresas não são agentes neutros. Elas lucram — e lucram muito — justamente com os dados que coletam dos usuários e com a lógica de engajamento baseada na disseminação de conteúdos sensacionalistas, muitas vezes tóxicos, violentos e odiosos.

Não podemos ignorar, também, que esse modelo de negócio impacta diretamente a saúde pública. O aumento de casos de transtornos mentais gera custos expressivos para os sistemas de saúde, transfere à sociedade o ônus dos prejuízos causados pela lógica irresponsável de lucro dessas empresas.

A decisão do STF é necessária, urgente e, sobretudo, civilizatória. Ela afirma, com todas as letras, que o ambiente digital não está fora do alcance da Constituição. Que a proteção da dignidade humana vale tanto no mundo físico quanto no virtual. E que as big techs não estão, e jamais estarão, acima da lei.

Silvia Virgínia de Souza

é advogada, conselheira federal pela OAB-SP e presidente da Comissão Nacional de Direitos Humanos do CFOAB.

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.