Sunday, 28 de April de 2024 ISSN 1519-7670 - Ano 24 - nº 1285

Jornalismo e eleições em 2024: o ano do deepfake?

(Foto: Pixabay License)

Você já ouviu falar do termo “deepfake”? Se não, acostume-se, porque ele tem o potencial de se tornar um dos mais populares e usados em 2024. E não à toa. Estamos, afinal de contas, em um ano com uma combinação perigosa: um avanço significativa da inteligência artificial em meio a diversas eleições que ocorrerão nos próximos meses.

Para entender como esses dois temas se conectam, é preciso primeiro entender o que é um deepfake. O termo se refere às chamadas mídias sintéticas, ou seja, conteúdos gerados por máquinas. Em muitos casos, eles buscam retratar algo real, mesmo sem ter uma origem na realidade. São, portanto, uma evolução das já conhecidas fake news, também chamadas de desinformação por pesquisadores.

O grande diferencial nos deepfakes está na sua origem: esses conteúdos são criados por ferramentas de inteligência artificial a partir do chamado “deep learning”, ou aprendizado profundo. A lógica é simples: a IA recebe uma enxurrada de conteúdos e, então, é treinada para criar conteúdos semelhantes, mas sem um compromisso de respaldo na realidade. Entra em seguida, então, outra IA, que separa os “erros” da ferramenta e os conteúdos dentro do esperado, melhorando o processo.

Em geral, o uso da inteligência artificial traz algumas vantagens. Os conteúdos criados costumam ser bastante realistas e fidedignos. Além disso, a criação sintética dá mais margem de liberdade e planejamento para os idealizadores do conteúdo e pode dar mais escala pensando em quantidade produzida. 

Troca de rostos em vídeos e fotos, “transferência” de movimentos de um rosto ou parte do corpo de uma pessoa para outra, remoção e inclusão de objetos e criação de imagens e áudios totalmente sintéticas – criadas do zero – estão entre os principais “casos de uso” da técnica.

É daí, portanto, que surge o termo deepfake. O “deep” vem de deep learning, e o fake de conteúdo falso. Em resumo: são conteúdos desinformativos criados por inteligência artificial que buscam enganar e espalhar informações falsas. É possível encontrar diferentes usos: criação de memes, alterações em fotos, novas versões de músicas. Mas, assim como as fake news, o maior potencial está no mundo da política.

Os deepfakes não são exatamente novos. Desde 2018, eleição após eleição, fala-se no Brasil e em outros países sobre as ameaças representadas por eles para a população, a democracia e o trabalho jornalístico. Até agora, porém, essa ameaça não se concretizou, limitada pela tecnologia da época. Mas cresceu ano a ano. 

Nas eleições presidenciais brasileiras de 2022, por exemplo, foi identificado um caso de deepfake bastante popular à época, em que a jornalista Renata Vasconcellos aparecia no Jornal Nacional informando dados de uma pesquisa de intenção de votos. O vídeo, porém, era falso. 

Já em 2023, a Bloomberg relatou em detalhes o uso de deepfakes na eleição parlamentar da Eslováquia: em um caso mais famoso, foi criado um áudio falso em que um candidato parecia confessar a um jornalista que estava comprando votos. Também em 2023, o Financial Times falou sobre o uso de deepfakes em Bangladesh para espalhar conteúdos favoráveis ao governo antes da próxima eleição parlamentar.

Confira abaixo, em inglês, um exemplo recente do que já é possível fazer com deepfakes, nesse caso criando um vídeo sintético do âncora da CNN Anderson Cooper:

Anderson Cooper, 4K Original/(Deep)Fake Example

Deepfakes em 2024

Mas será que 2024 será o ano dos deepfakes? 

Alguns fatores parecem conspirar para isso. O primeiro, e talvez mais relevante, é o avanço notável das ferramentas de inteligência artificial. Os conteúdos criados por elas são cada vez mais realistas, semelhantes aos criados por humanos. Conforme são treinadas diariamente, as ferramentas de IA vêm perdendo os traços característicos de seus produtos: seis dedos nas mãos ao invés de cinco, áudios robóticos e com tom de voz quase metálico, pessoas com expressões faciais estranhas em vídeos, mexendo pouco o rosto ou com olhares apáticos. Além disso, essas ferramentas estão cada vez mais acessíveis e baratas.

Isso significa que, neste ano, precisaremos lidar com os deepfakes mais realistas da história. E justo em 2024, apontado por especialistas como um dos anos com mais eleições na história contemporânea e com ameaças crescentes à democracia ao redor do mundo.

Teremos pleitos importantes nos Estados Unidos, Reino Unido, União Europeia, México, Indonésia, África do Sul, Índia, Taiwan e muitos outros, além das próprias eleições municipais no Brasil. Ou seja, um terreno fértil para a disseminação já tradicional – e criminosa – de fake news para influenciar o eleitorado. Não é ousado demais pensar que, nesse cenário, a demanda por deep fakes também pode disparar.

Mas essa possibilidade pode não se concretizar. Atores de disseminação de desinformação podem avaliar que os deep fakes ainda não possuem um custo-benefício vantajoso, que eles ainda são facilmente identificáveis ou que, simplesmente, os conteúdos desinformativos tradicionais e mais simples ainda cumprem bem o seu papel, não sendo necessário mexer em time que está ganhando.

Por outro lado, é provável que os deep fakes ganhem terreno, ao menos em mais testes práticos para avaliar os seus potenciais e resultados. Se eles ganharem tração, o problema poderá ser ainda maior que o atual: será mais difícil identificar esses conteúdos, checá-los, refutá-los e convencer determinados públicos inclinados a concordarem com eles que a informação em um áudio ou vídeo extremamente realista está incorreta.

O desafio surge, também, para o jornalismo. Em 2024, o exercício da checagem de fatos provavelmente será ainda mais demandado, tornando-se mais complexo: será preciso dar um “upgrade” nos conhecimentos atuais e entender o que é preciso fazer para identificar e verificar um possível deepfake.

Será preciso melhorar ainda mais rotinas e técnicas de identificação de conteúdos virais, métodos de checagem e, além disso, intensificar discussões sobre adoção de inteligência artificial para auxiliar nesse trabalho. Se o uso de IAs aumenta a quantidade e qualidade do conteúdo desinformativo, ele também pode ajudar a melhorar e intensificar o combate a ele.

Para isso, porém, é preciso agir. Mas não podemos imaginar que o trabalho jornalístico sozinho poderá conter uma enxurrada de deepfakes. O papel das autoridades, como a Justiça Eleitoral, continuará essencial, assim como o avanço da implementação de leis sobre o tema e a atualização da legislação atual.

Mesmo que os deepfakes não ganhem o espaço imaginado pelas previsões mais apocalípticas nas eleições deste ano, é urgente que os veículos jornalísticos comecem desde já a conduzir treinamentos e discussões sobre eles. Apenas assim será possível se preparar de alguma forma para uma inevitável expansão dessa próxima etapa do fenômeno da desinformação, independentemente dela se consolidar, ou não, em 2024.

***

João Pedro Malar é bacharel em jornalismo pela ECA-USP. Atualmente, é mestrando junto ao Programa de Pós-Graduação em Ciências da Comunicação na mesma instituição. É pesquisador do Com+ – Grupo de Pesquisa em Comunicação, Jornalismo e Mídias Digitais.