Pesquisar
Garantias do Consumo

Quando a atenção vira intenção: riscos do avanço da IA na publicidade hiperpersonalizada para o consumidor

Se você acha que ainda vivemos na “economia da atenção”, em que a atenção do consumidor é um dos principais ativos comercializados em leilões digitais e invisíveis em tempo real, está errado — pois ela evoluiu para a “economia da intenção”.

As big techs vêm investindo massivamente em tecnologias capazes de captar, inferir e prever intenções humanas em tempo real, a partir da coleta de dados que extrapolam interações digitais convencionais, alcançando dimensões íntimas do comportamento, como padrões emocionais, estilo comunicativo e propensão à ação. Essas capacidades são exploradas comercialmente por meio da transformação de intenções em mercadorias, permitindo a segmentação de desejos latentes e gerando um mercado altamente lucrativo [1].

A inteligência artificial (IA), inclusive a generativa, é uma dessas tecnologias. Ela vem popularizando uma variedade de capacidades técnicas, tornando-as mais acessíveis e, em certa medida, potencializando o que antes dependia de habilidades específicas. Isso abrange desde a criação visual e musical até a análise de dados complexos e a escrita, impactando profundamente o dia a dia de profissionais e facilitando processos operacionais e até mesmo criativos.

O uso da IA na publicidade, sobretudo por parte de pequenos anunciantes, abre um novo leque de oportunidades e representa um incremento significativo na democratização da criação publicitária para este segmento. Se a chegada das redes sociais com as ferramentas de segmentação de público-alvo e de distribuição de conteúdo incluiu no jogo os players menores sem orçamento para contratar agências, a IA agora oferece recursos para que esses mesmos pequenos anunciantes otimizem a criação de suas mensagens mercadológicas, potencializando a economia da atenção.

Era o impulso que faltava à “terceira perna” do tripé Segmentação-Distribuição-Criação. Ao par de segmentação ter sido aprimorada por perfilização e a distribuição se popularizou por plataformas digitais, desta vez focou-se em uma área que até então era vista como imune à automação, afinal a criação é (ou não?) uma prerrogativa exclusivamente humana [2]. As grandes plataformas que já dominam a receita da venda de espaços publicitários — como Google, Meta, ByteDance e Amazon — claramente não partilham dessa visão.

Durante o último Festival de Cannes, o badalado evento anual do mercado publicitário, o TikTok lançou “um conjunto de ferramentas de IA generativa projetadas para otimizar a produção criativa e inspirar novas ideias ousadas” [3]. Em outras palavras, são recursos que transformam materiais estáticos como fotos e textos em vídeos publicitários. A Meta também apresentou novas funcionalidades voltadas para a personalização de anúncios que prometem “incorporar facilmente logotipos, cores, fontes, tons de voz, estilos visuais e funcionalidades avançadas de personalização, incluindo personas de texto e traduções, em uma linguagem criativa unificada” [4].

Ainda que a IA não avance, pelo menos por ora, sobre o desenvolvimento do conceito criativo por trás de campanhas publicitárias, até então prerrogativa da mente humana, a realização dessas campanhas em si parece fadada a ser absorvida cada vez mais por IA. Talvez os pequenos anunciantes sejam os clientes prioritários neste primeiro momento, mas o perfil das big techs nunca foi de se contentar com pouco.

É nesse sentido que podemos ler a fala de Mark Zuckerberg durante o encontro periódico com analistas de mercado em março de 2025. Ele afirmou que a capacidade técnica já demonstrada pela Meta de segmentar e entregar conteúdo agora vai se estender para a criação. Na sua visão, a IA vai gerar melhores soluções criativas de anúncios, bastando: “nos informar [à aplicação de internet] qual resultado deseja alcançar — como vender algo ou conseguir um novo cliente — e quanto está disposto a pagar por cada resultado, e então nós fazemos o resto” [5].

Seis pontos

A declaração de Sam Altman no livro Our AI Journey (ainda sem tradução em português) de que a IA será responsável por “95% das tarefas para as quais os profissionais de marketing hoje contratam agências, estrategistas e criativos” [6] também é de tirar o sono do mercado publicitário no formato como está estruturado hoje.

A tecnologia sempre foi uma força transformadora na indústria da publicidade. Não faz muito tempo, vimos uma significativa migração dos orçamentos de mídia e canais de comunicação do tradicional para o digital.

Atualmente, o debate sobre o impacto da IA no mercado de trabalho — e a possível substituição de seres humanos em diversas atividades — ocupa um lugar central. No setor da publicidade, essa discussão é igualmente relevante. Contudo, é fundamental ir além e refletir sobre os impactos do uso da IA sobre o consumidor no que se relaciona à publicidade.

Neste contexto, identificamos pelo menos seis pontos críticos que merecem atenção: (1) a crescente possibilidade de publicidade enganosa e abusiva; (2) o potencial uso da IA para fins ilícitos no campo publicitário; (3) a intensificação da vulnerabilidade dos consumidores e de seus dados pessoais frente aos sistemas inteligentes; (4) manipulação algorítmica do desejo e dos comportamentos de consumo; (5) favorecimento de assédio de consumo por meios digitais; e (6) discriminação algorítmica.

A popularização dos sistemas de IA, que tornam o manejo de texto, imagem e voz mais acessível, inevitavelmente potencializa o risco de uso indevido. Isso ocorre tanto pelo desconhecimento das normas legais por parte de novos anunciantes que ingressam no ambiente publicitário, quanto pela má-fé.

Vale lembrar que a atividade publicitária já possui um arcabouço legal consolidado no Código de Defesa do Consumidor (CDC), complementado pela autorregulamentação do Conselho de Autorregulamentação Publicitária (Conar). No entanto, a facilidade de criar peças publicitárias e a fidedignidade na reprodução de ambientes e pessoas que a IA oferece podem, facilmente, criar um contexto mais propício para induzir tanto o consumidor quanto o anunciante ao erro, já que, quanto ao primeiro, não haverá a transparência necessária para que consiga compreender eventualmente a mensagem e, quanto ao segundo, pela inobservância deveres éticos que pautam a atividade que um profissional, em princípio, estaria adstrito.

Um sistema de IA pode criar, por exemplo, fotos de modelos fictícios exibindo resultados de emagrecimento ilusórios após usar um suplemento. Ou ainda, gerar depoimentos falsos de “especialistas” com vozes trabalhadas por IA prometendo resultados irreais. A facilidade e o baixo custo de produção desses conteúdos hiper-realistas, combinados com a falta de conhecimento legal ou a má-fé, aumentam exponencialmente o risco de publicidade enganosa, induzindo o consumidor a crer em benefícios que não serão entregues, e abusiva, levando o consumidor a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança, entre outras hipóteses. No mesmo sentido, a “fidedignidade” artificial da representação, criada pela IA, torna o engano mais sutil, a frustração do consumidor mais acentuada, e a capacidade de gerar efeitos mais sofisticada.

Um segundo risco emerge do uso de sistemas de IA por fraudadores. Eles se aproveitam da voz e imagem de pessoas famosas, utilizando tecnologias como deepfakes e clonagem de voz para veicular golpes disfarçados de anúncios. Esses anúncios falsos, que circulam amplamente em redes sociais e outras plataformas, induzem consumidores a entregar desde dinheiro até dados pessoais.

Exemplos notórios são frequentes tanto no Brasil quanto no mundo. Um número significativo de pessoas famosas já teve suas imagens e vozes manipuladas por IA para promover falsos programas sociais, investimentos fraudulentos ou “curas milagrosas”. Internacionalmente, celebridades também são vítimas de deepfakes para endossar produtos falsos. A cada momento, essas personalidades precisam vir a público para desmentir os anúncios e alertar seus seguidores.

Isso significa que o consumidor não está apenas sujeito à publicidade enganosa, mas também a um anunciante fraudulento e, muitas vezes, totalmente fictício. E, quando o próprio anunciante é falso ou inacessível, a responsabilização se torna muito mais complexa, o que desafia diretamente a estrutura protetiva estabelecida pelo CDC, que pressupõe um anunciante identificável para garantir a reparação de danos.

O terceiro risco para o consumidor na publicidade impulsionada por IA está na hiperpersonalização. Esse processo, que exige uma vasta quantidade de dados pessoais para alimentar os sistemas de IA, visa criar anúncios extremamente adaptados ao indivíduo.

Para desenvolver essas mensagens altamente personalizadas, são utilizados dados mais detalhados e muito mais reveladores sobre o consumidor [7]. No setor varejista, por exemplo, a IA é empregada para personalizar não apenas peças publicitárias, mas diálogos com chatbots, bem como recomendações de produtos e serviços. Isso gera um apelo de exclusividade e aumenta a percepção de confiança e conexão, tornando o consumidor mais propenso a consumir e a ser manipulado a partir de gatilhos mentais que talvez nem o próprio consumidor tenha consciência, o nosso quarto risco

Um dos aspectos mais preocupantes da hiperpersonalização é a falta de transparência nos processos decisórios automatizados. No contexto publicitário, esses sistemas se encarregam cada vez mais de decisões cruciais, que vão desde a escolha do destinatário até o texto e a imagem específicos usados para cada pessoa. No Brasil, o artigo 20 da Lei Geral de Proteção de Dados (LGPD) estabelece que “o titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. No entanto, a implementação prática desse direito enfrenta desafios significativos, especialmente diante da complexidade e escala da publicidade algorítmica.

O quinto risco reside na ubiquidade da publicidade hiperpersonalizada. Ela passa a acompanhar o consumidor de forma persistente, invisível e contextual. Não se trata mais de uma mera exposição esporádica a anúncios, mas sim de um ambiente contínuo de estímulos mercadológicos moldados por dados, emoções, tempo de tela, localização, e até inferências psicográficas [8]. Isso produz um “assédio algorítmico” — uma forma de pressão econômica constante, em que a IA busca maximizar a resposta do consumidor, não raro ultrapassando limites éticos e jurídicos da persuasão legítima.

Outro risco crítico é a maior probabilidade de publicidade discriminatória. Os algoritmos podem reproduzir e amplificar preconceitos existentes nos dados de treinamento, resultando em práticas discriminatórias. Casos emblemáticos reportados na literatura incluem discriminação em anúncios de emprego, e ofertas envolvendo seguros com base em gênero, idade e CEP residencial. Agora, com a IA escolhendo os “criativos” (elementos visuais e textuais) mais adequados para cada pessoa, e considerando a possibilidade de bancos de imagens enviesados, a chance de produção de conteúdo preconceituoso tende a aumentar significativamente, dependendo das características desses bancos de dados.

Por fim, a hiperpersonalização detém um poder manipulativo significativamente maior sobre os consumidores. Isso se deve não apenas ao imenso volume de dados utilizados, mas também à integração de recursos de IA voltados para análises de natureza emocional e psíquica [9]. Tais ferramentas são usadas para definir o “melhor encaixe” entre público e mensagem, tornando a comunicação publicitária mais invasiva e persuasiva.

Considerações finais

A tecnologia sempre foi uma variável crucial na reorganização do mercado publicitário. Hoje, a IA representa uma mudança ainda mais significativa, impactando diretamente a atividade central da publicidade: a criação.

Essa mudança gera efeitos em todo o mercado. Por um lado, agências de publicidade precisarão repensar sua relevância, já que os recursos de IA avançam sobre seu core business. Por outro, no que tange ao consumidor, somente a adoção de mecanismos robustos de mitigação de riscos — como a revisão de processos automatizados, o combate a vieses, a transparência e a garantia de proteção de dados — permitirá colher os benefícios dessa tecnologia sem comprometer sua confiança e seu bem-estar.

Em outras palavras, é essencial observar e aplicar o arcabouço jurídico-regulatório existente (como o CDC e a LGPD), além de avançar na regulamentação do Marco Civil da IA no Brasil, considerando os riscos dessa nova fronteira da intenção que podem comprometer valores fundamentais como a privacidade, a autonomia decisional, a igualdade nas contratações e aumentar a vulnerabilidade dos consumidores.

 


[1] Veja aqui

[2] Indagação semelhante foi feita por Caroline Somesom Tauk no ótimo artigo Entre prompts e direitos autorais: a criatividade humana faz a diferença. Disponível aqui

[3] Da seção de notícias do TitkTok. Disponível aqui

[4] Da seção de notícias da Meta. Disponível aqui

[5] No original: “Our goal is to make it so that any business can basically tell us what objective they’re trying to achieve — like selling something or getting a new customer — and how much they’re willing to pay for each result, and then we just do the rest, he told analysts when briefing them on March quarter results. Disponível aqui

[6] Disponível aqui

[7] FINIO, Matthew; DOWNIE, Amanda. O que é a hiperpersonalização? Think, 31 jan. 2025. Disponível aqui.

[8] Neste sentido ver o trabalho da professora Fernanda Bruno no MediaLab da UFRJ em MEDIALAB.UFRJ. Economia Psíquica do Algoritmo em Linha do Tempo. Blog do MediaLab.UFRJ, 2024. Disponível aqui.

[9] Neste sentido ver o trabalho da professora Fernanda Bruno no MediaLab da UFRJ em MEDIALAB.UFRJ. Economia Psíquica do Algoritmo em Linha do Tempo. Blog do MediaLab.UFRJ, 2024. Disponível aqui.

Mariana Palmeira

é advogada, professora da PUC-Rio, doutora em Teoria do Estado e Direito Constitucional pela PUC-Rio e membro do grupo de pesquisa Legalite, do grupo Economia Política da Comunicação (EPC/PUC-Rio) e da comissão de privacidade e proteção de dados da OAB-RJ.

Guilherme Mucelin

é doutor e mestre em Direito pela UFRGS, especialista em Direito do Consumidor pela Universidade de Coimbra e em Direito Comparado dos Contratos e do Consumo pela Université de Savoie Mont Blanc, pós-doutorando em Direito pela UFF e em New Technologies, Law and Social Sciences pela Università "Mediterranea" di Reggio Calabria, professor e assessor no Comitê Estratégio de Proteção de Dados Pessoais do MPRJ e diretor de ecommerce e plataformização do Brasilcon.

Seja o primeiro a comentar.

Você precisa estar logado para enviar um comentário.

Leia também

Não há publicações relacionadas.