Sábado, 31 de janeiro de 2026 ISSN 1519-7670 - Ano 2026 - nº 1373

Em eleições, tecnologias emergentes encontram formas de uso ‘inovadoras’

(Foto: Markus Winkler/Pexels)

O relatório “Os Novos Contornos da Desinformação”, da Fundação Luca de Tena, denuncia a consolidação da indústria dos “falsos meios”. São veículos digitais criados com o design e a estética do jornalismo para monetizar a atenção das pessoas por meio de conteúdos virais e irreais, distorcidos ou descontextualizados.

Na França, por exemplo, o experiente e premiado jornalista Jean-Marc Manach encontrou, em cerca de um ano e meio, mais de 4 mil sites falsos de notícia. Em sua maioria, desenvolvidos e mantidos por especialistas em técnicas e estratégias usadas para ranquear no Google organicamente.

Os experts em SEO (Search Engine Otimization) agora contam com ferramentas de inteligência artificial para produzir sites e plagiar ou inventar os artigos que publicam. Fake news promovidas por esses falsos equivalentes geram cliques suficientes para alimentar os sites com anúncios, muitos deles financiados por grandes marcas que não se dão conta dos prejuízos para a reputação.

Além de enriquecer seus donos, essas imitações concorrem de forma desleal com veículos legítimos. Fazem circular conteúdos sensacionalistas e mentirosos, produzidos artificialmente de forma ágil, barata e nem sempre rastreável. Os algoritmos de recomendação os impulsionam assim mesmo.

Essa indústria de “falsos meios” está desmantelando aos poucos o mercado de organizações que produzem informação de qualidade e minando a confiança pública nos intermediários que ainda se preocupam com a veracidade dos fatos, a consistência dos dados e a busca por evidências.

Não é só o jornalismo que vem sofrendo os efeitos desse fenômeno estrutural, mobilizado por interesses estratégicos para monetizar nossa atenção.

Jornalista que preside a Associação Catarinense de Imprensa, Déborah Almada, em recente artigo no LinkedIn, alerta para a potencial ameaça da inteligência artificial em destruir reputações. O foco da reflexão são as eleições de 2026 e os riscos do mau uso das tecnologias generativas.

O advogado especialista em direito digital e eleitoral, Isaac Medeiros, com quem Déborah conversou, aponta que campanhas envolvendo personagens periféricos em situações inventadas para manchar a reputação de um candidato, por exemplo, tendem a surtir efeitos mais danosos.

Já no ano passado, a Justiça Eleitoral temia que a campanha para as eleições municipais pudesse escalar irregularidades ainda não enfrentadas. Chegou a antecipar em resolução medidas de contenção com alcance apenas no âmbito da atuação dos candidatos e do sistema de votação.

As eleições de 2024 não confirmaram o temor da Justiça, mas serviram de teste para estratégias políticas que tangenciam entre o vazio de uma legislação específica em eterna discussão e a jurisprudência das decisões nos tribunais eleitorais.

Para citar um exemplo, Pablo Marçal, candidato a prefeitura de São Paulo que nunca teve aspiração verdadeira por cargos públicos, mantém sua reputação como influenciador, coach e empresário, apesar de ter se tornado inelegível por uma série de irregularidades na campanha.

Para muita gente, um empreendedor bem-sucedido e ungido na teologia da prosperidade é mais credível do que juízes que “perseguem” quem não está no esquema de um “sistema corrupto”. Mesmo que os fatos mostrem o contrário.

Para ler os sinais difusos no mundo digital, antecipar os riscos em processos eleitorais parece um bom caminho. Em eventos excepcionais e previamente agendados é que as tecnologias emergentes encontram técnicas e estratégias de uso inovadoras.

Contexto necessário

Em reflexões anteriores, baseadas nas informações que apuramos no Observatório e-Comtextos, propusemos que o vácuo da falta de regulação para garantir direitos humanos fundamentais, incluindo a liberdade de expressão, e as decisões sobre como restringir a escalada da desinformação e de discursos violentos estariam influenciando a geopolítica e a geoeconomia.

E essa interpretação está sustentada no legado deixado pelo megaciclo eleitoral de 2024, que mobilizou bilhões de pessoas pelo mundo e deu mais propósito a democracias iliberais, em alguns casos com a confirmação por maioria de votos a candidatos autocráticos. Mas o que vem se confirmando crescente em todos os processos de votação é o enfraquecimento de instituições independentes em nome de direitos individuais.

Também observamos as tensões entre a soberania digital das grandes empresas de tecnologia e as esferas de poder nos países democráticos. Ferramentas tecnológicas desenvolvidas e disponibilizadas por organizações sediadas nos Estados Unidos estão no cerne de medidas impositivas nas relações internacionais.

Das redes sociais a movimentações bancárias, há uma gama de recursos digitais dos quais nos tornamos excessivamente dependentes, sejamos pessoas físicas, jurídicas ou entes públicos. E as big techs têm o controle global desses recursos, direta ou indiretamente.

Por fim, avaliamos que, nesse cenário, discursos violentos e polarizadores, amparados por uma ideia enviesada de liberdade de expressão, são essenciais para os modelos de negócio das grandes empresas de tecnologia e os interesses políticos de determinados grupos. Conteúdo virou commodity e a nossa atenção, moeda.

Dominar técnicas e estratégias para fomentar essa estrutura é a forma de neutralizar intermediários entre a realidade e as crenças, os fatos e as opiniões, as intenções e os resultados. Mas tem outras variáveis também em jogo.

Fatores históricos e culturais em diferentes regiões do planeta estão sendo forçados a se moldar a uma única ideologia fundamentada no progresso tecnológico e em valores econômicos descolados do debate público.

Por isso mesmo, as grandes empresas de tecnologia insistem em demonizar legislações que não atendem à interpretação rasa de liberdade inscrita na Primeira Emenda da Constituição estadunidense.

Esse contexto é importante para justificar nossa percepção de que as eleições presidenciais no Brasil em 2026 talvez sejam mais influenciadas por variáveis tecnopolíticas externas ao evento do que pelo domínio de técnicas e estratégias de marketing e de comunicação para produzir desinformação.

Vigilância e dissimulação

Inteligências artificiais nos vigiam o tempo todo. Mapeiam nossos interesses, engolem nossos dados pessoais e analisam nosso comportamento para mobilizar desejos e ações. Muito se fala do ChatGPT e assemelhados, mas é sempre bom lembrar que uma inocente consulta a um GPS qualquer é suficiente para acionar essa vigilância.

Com as inteligências artificiais generativas, agora falando mesmo no ChatGPT e assemelhados, os maiores riscos em processos eleitorais não estão apenas na capacidade de essas ferramentas inventarem conteúdos constrangedores ou mentirosos, ou ainda manipularem falsas alegações. Contra isso já se vislumbram alternativas.

A questão está na escala e na adoção silenciosa e nada transparente da vigilância digital com recursos das grandes empresas de tecnologia. Em bom português, o uso de inteligências artificiais generativas garante a propagação massiva de discursos hiper personalizados, entregues a quem os algoritmos “sabem” que vai aderir e amplificar a mensagem.

Uma declaração inventada, um acontecimento que nunca ocorreu, uma imagem que não existe ou uma teoria conspiratória ganha um poder inteiramente novo com essas ferramentas: o de ser creditado a muitas versões, vozes e canais simultâneos que imitam formas de dar veracidade a qualquer coisa em “tempo real”. A consolidação da indústria dos “falsos meios” é, em parte, resultado desse poder.

Pouco importa se a maioria das pessoas vai acreditar ou não nas mentiras que circulam. A principal estratégia por trás disso é cristalizar o ceticismo generalizado, dissimular a dúvida como argumento para quaisquer críticas aos fatos e às evidências que contradigam a fértil imaginação inspirada nesses falsos equivalentes.

Projetos político-eleitorais predatórios ganham com as tecnologias generativas ao adotarem uma estrutura de apoio acessível, de fácil manipulação e baixo custo para agilizar, personalizar, propagar e multiplicar conteúdos falsos, enganosos, violentos ou descontextualizados.

Para preservar reputações, investir em comunicação, como sugere Déborah Almada, ajuda a antecipar riscos e estratégias de resposta a eventuais crises. No âmbito eleitoral, até existe uma certa previsibilidade no jogo, o campo é mais ou menos controlado por regras rígidas e uma jurisprudência já robusta.

Fora de eventos excepcionais como eleições, no entanto, a regulação contra abusos digitais ainda aguarda projetos legislativos sufocados em comissões parlamentares e lobbies empresariais, com raros sinais de avanço.

Já está ficando claro que princípios éticos autorregulatórios são insuficientes no uso de plataformas digitais e ferramentas generativas, se não houver marcos legais capazes de garantir equilíbrio entre direitos e liberdades.

O caminho para 2026 talvez seja testar cadeias independentes e articuladas de responsabilização, mecanismos de fiscalização e supervisão humana no agenciamento dessas tecnologias emergentes em complemento às técnicas e estratégias de enfrentamento à desinformação.

Vacinas contra a viralização de conteúdos nocivos são úteis, mas pontuais. Hackear a estrutura de propagação e recriar a esfera de debate público é o grande desafio.

***

Luciano Bitencourt  é jornalista, professor e analista no Observatório e-Comtextos sobre filtros de confiança na informação.