A inteligência artificial já ocupa um espaço quase primordial na vida dos brasileiros, transformando tanto a rotina diária quanto o ambiente corporativo. Do direito à medicina, da engenharia ao jornalismo, profissionais já incorporaram ferramentas de IA em suas práticas. Essa transformação, antes distante, tornou-se uma realidade cotidiana.

Com presença sólida na sociedade, a IA demonstra um poder impactante ao influenciar narrativas em diferentes áreas, setores e contextos. Como única tecnologia capaz de processar quantidades ilimitadas de dados, analisar padrões complexos e criar conteúdo de forma inimaginável ao cérebro humano, a IA representa um poder transformador sem fronteiras. Vai desde a otimização de diagnósticos médicos até a produção de desinformação sofisticada que molda a opinião pública.
Essa natureza dual nos obriga a compreender seu impacto sobre o pilar mais sensível da democracia: as eleições.
As eleições municipais de 2024 no Brasil ilustraram as dificuldades decorrentes do uso crescente da inteligência artificial. Deepfakes, bots disseminando mentiras em massa e algoritmos direcionando conteúdo específico deixaram de ser possibilidades remotas para se tornarem ameaças reais à democracia.
Na Argentina, por exemplo, circulou um vídeo deepfake do ex-presidente Mauricio Macri anunciando a retirada da candidatura de Silvia Lospennato e pedindo votos para Manuel Adorni, aliado de Javier Milei. A gravação falsa espalhou-se nas redes sociais poucas horas antes da votação, gerando incertezas no eleitorado e fomentando narrativas sobre mudanças estratégicas de voto.
Ciente dessa nova fronteira de riscos, o Tribunal Superior Eleitoral (TSE) tem desenvolvido uma estratégia multifacetada de enfrentamento. O Programa Permanente de Enfrentamento à Desinformação, criado em 2019 e tornado ação permanente em 2021, conta atualmente com mais de 150 parceiros, incluindo Google, Meta, TikTok, X, YouTube, Telegram e Kwai.
O Congresso Nacional tenta legislar sobre o tema por meio do Projeto de Lei Complementar nº 112/2021. Contudo, a proposta original se limita a organizar e sistematizar regras já previstas em resoluções do TSE, como a de nº 23.610/2019, trazendo poucas inovações reais.
Essa omissão é preocupante, especialmente considerando a sofisticação crescente da IA. Deepfakes de alta qualidade, vozes sintéticas e textos linguisticamente impecáveis desafiam até mesmo os especialistas. A diferença entre o real e o falso tornou-se praticamente imperceptível.

A vulnerabilidade do eleitorado brasileiro amplia os riscos. Dados do TSE de 2024 apontam que mais de 67% dos eleitores não concluíram o ensino médio ou pararam no ensino fundamental. Apenas 10,75% são graduados. Pesquisa DataSenado de 2024 mostra que 81% dos brasileiros acreditam que fake news influenciam fortemente o resultado das eleições. Mais da metade afirma ter dificuldade para distinguir uma notícia verdadeira de uma falsa.
Um ponto crítico da proposta do novo Código Eleitoral está nas sanções previstas para quem utiliza IA para espalhar desinformação. Os artigos 509, 623 e 624 estabelecem penalidades exclusivamente financeiras — estratégia já demonstradamente ineficaz.
Embora o TSE tenha editado a Resolução nº 23.732/2024, proibindo o uso de deepfakes e prevendo sanções como cassação de registro ou mandato (artigo 9-C, §2º), as eleições municipais revelaram as limitações práticas dessas medidas. Em 2022, o TSE aplicou mais de R$ 940 mil em multas, o que não foi suficiente para frear as infrações.
Encruzilhada na democracia brasileira
A detecção de conteúdo gerado por IA tornou-se tecnicamente desafiadora. Mesmo com políticas adotadas por plataformas como TikTok, YouTube e Meta, estudos mostram que anúncios falsos ainda são aprovados, indicando falhas sistemáticas na moderação.
A situação se agravou com a nova interpretação do Supremo Tribunal Federal no Tema 987, que declarou parcialmente inconstitucional o artigo 19 do Marco Civil da Internet. O novo entendimento responsabiliza as plataformas que ignorarem notificações extrajudiciais para remover conteúdo ofensivo ou ilegal — sem necessidade de ordem judicial prévia.
Diante de condutas antidemocráticas com esse grau de gravidade, as penalidades devem refletir o real valor do bem jurídico violado. Se o que está em jogo é a integridade do voto, a legitimidade dos mandatos e a confiança no sistema democrático, sanções meramente pecuniárias são insuficientes.
Quem utiliza IA para manipular o processo eleitoral deve ser penalizado com inelegibilidade e, quando comprovado o benefício direto, com a perda do mandato.
O Brasil enfrenta riscos agravados por fatores como baixo nível educacional, desigualdade social, ampla penetração das redes sociais e ausência de infraestrutura adequada de checagem de fatos. A desinformação, nesse ambiente, se dissemina com velocidade superior à capacidade de resposta institucional.
O Brasil está diante de uma encruzilhada democrática. Vivemos uma era de avanço exponencial da inteligência artificial, mas nossa legislação eleitoral ainda responde com as soluções de ontem. O PLP nº 112/2021, em sua forma atual, falha em se tornar o marco modernizador necessário.
É urgente revisar o projeto original, incorporar os avanços jurisprudenciais do STF, ampliar as sanções previstas e adotar mecanismos eficazes de combate ao uso malicioso da IA. Assim, será possível preservar a integridade do processo eleitoral e garantir que a vontade popular — e não a manipulação artificial — continue sendo o fundamento do poder.
Seja o primeiro a comentar.
Você precisa estar logado para enviar um comentário.
Fazer login