
(Foto: Anna Tarazevich/Pexels)
Cenas violentas tomaram as tendências do TikTok em agosto. Uma baleia orca ataca sua treinadora no tanque de um parque temático. Numa tomada, o animal puxa a mulher pelo braço, em outra, a leva para o fundo da piscina, em uma terceira, a engole por inteiro. Um último vídeo ainda mostra a vítima, Jessica Radcliffe, sendo levada às pressas para o hospital.
Os vídeos, inventados por inteligência artificial, deixavam claro que a história, assim como a treinadora ali retratada, era difícil de engolir. Mais complicado era entender se alguma parte de tudo aquilo era verdade. Coube a checadores como os do Estadão Verifica explicar que atualmente os parques temáticos que ainda possuem baleias não permitem que os treinadores entrem no tanque com os animais. Sequer há indícios de que exista uma treinadora de orcas chamada Jessica Radcliffe.
Junte a fome da economia da atenção com a vontade de comer das ferramentas de criação de imagens por IA e temos um banquete de notícias falsas, servidos diariamente nas plataformas digitais. E os checadores que antes montavam o menu, evitando conteúdos tóxicos, estão cada vez mais escassos, graças ao desmonte que plataformas como Meta e X promoveram em suas estruturas de verificação de informações.
Um artigo do Washington Post traduzido pela Folha, também em agosto, mostrou as limitações do sistema de Notas da Comunidade adotado pela Meta. Das 65 notas submetidas pelo colunista Geoffrey Fowler, com farta documentação de suporte, apenas três foram publicadas, menos de 5%.
Segundo o que apurou o jornal, a baixa taxa de aproveitamento se deve a limitações da plataforma (que não aceita conteúdos de fora dos EUA, onde está sendo testada) e à lógica de algoritmo utilizado pela rede, que acaba criando condições difíceis de se concretizarem para que checagens ganhem visibilidade.
O modelo da Meta baseia-se no do X, de Elon Musk, e agora também deve ser adotado pelo TikTok nos Estados Unidos. Noves fora, temos aí plataformas que cobrem de 51% a 80% da população americana. Patamares próximos aos observados no Brasil.
É preocupante que mais uma vez o discurso de que “problemas criados pelos algoritmos devem ser solucionados pelos algoritmos” esteja prevalecendo. Isso relega a checagem humana apenas às já bastante reduzidas agências e iniciativas de checagem da imprensa. Some isso à capacidade viral que boatos possuem em contraponto à diminuta repercussão das agências de checagem e temos um cenário cataclísmico.
Um exemplo clássico dessa disputa da força das plataformas com a checagem tradicional da imprensa foi a capa do jornal O Globo de 30 de setembro de 2018, que retratava a manifestação do #EleNão. A imagem da multidão de pessoas no Rio de Janeiro teve a veracidade contestada nas redes, a ponto de gerar centenas de cancelamentos de assinaturas do jornal. Diziam que um dos prédios da foto de capa era o que tinha desmoronado mais cedo naquele ano, indicando que se tratava de uma imagem antiga. No dia seguinte, uma equipe foi mobilizada para elaborar um infográfico para atestar a veracidade do que tinha sido publicado. Mas o estrago já estava feito. Os assinantes, perdidos.
A dinâmica das redes e a sua relação com a desinformação é um tema que sempre me preocupou e me interessou. Voltei do mestrado na Espanha, em 2014 com o projeto de criar um jogo capaz de transformar seus usuários em checadores, usando o poder do crowdsourcing, a estratégia de conseguir a colaboração de um grupo de pessoas para realizar alguma tarefa. No caso, a ideia era dividir o fardo da checagem, que dá muito trabalho e pouco retorno, como vimos.
Por volta dessa época da capa do Globo, estava com a ideia de transformar o projeto em tese de doutorado. Na revisão bibliográfica sobre o tema tomei contato com um estudo que aplicava a teoria da inoculação para combater as notícias falsas. A ideia era simples. Assim como uma vacina inocula um vírus enfraquecido para gerar uma resposta imunológica, era possível expor uma versão mais fraca da desinformação para estimular o senso crítico.
Para esse fim, no estudo, os participantes eram convidados a entrar no papel de um criador de fake news em um jogo online, de modo a aprenderem as estratégias para enganar a audiência. Antes e depois do jogo, os participantes foram convidados a avaliar notícias e classificar se as consideravam verdadeiras ou falsas. Após a experiência, todos demonstraram melhorar suas habilidades de checagem.
Desde então fiquei com a ideia de materializar aquela ideia antiga de crowdsourcing em um app, mas o desconhecimento de programação e a falta de recursos acabou deixando o projeto parado. De lá para cá, a inteligência artificial mudou completamente o cenário, deixando o deep fake ao alcance de todos.
Mas, se por um lado a tecnologia embaralhou a realidade, por outro também permitiu que pessoas comuns passassem a poder programar a partir de simples comandos de texto. E foi a partir do vibe coding que construí meu protótipo, o jogo para checagem de notícias, que por ora leva o nome de “Chequei!” e pode ser acessado por este link.
Nele o usuário é convidado a avaliar se uma notícia é verdadeira ou falsa, e recebe um feedback instantâneo se acertou ou errou em seu julgamento. A ideia é que a exposição à checagem contribua para a alfabetização mediática. Trata-se de um projeto em construção, que ainda depende de parcerias para a alimentação periódica com notícias e checagens, para que siga em curso. E que ainda nem tocou no cenário da avaliação de vídeos como o da orca assassina que mencionei no começo.
Com ou sem jogo, precisamos de mais iniciativas que permitam treinar o olhar dos usuários. Não com o objetivo de substituir as equipes de checagem, mas de entender a sua importância. A alfabetização mediática vai nos permitir discernir melhor o que é verdadeiro do que é falso, e também cobrar das plataformas para que não abandonem ou que retomem as estruturas de apuração. Não é uma tarefa fácil, a de assumir o papel de atestar a veracidade dos fatos. Sabemos que jornais e até mesmo checadores podem falhar. Isso é assunto para um outro artigo. Mas é melhor do que a alternativa que está hoje posta à mesa.
***
Paulo Justus é jornalista e gerente de comunicação da Novo Nordisk. Trabalhou como repórter no Estado de S. Paulo, Brasil Econômico, O Globo e IstoÉ Dinheiro, antes de entrar para a comunicação corporativa na indústria farmacêutica, em 2014. Possui mestrado em Comunicação pela Faculdade Cásper Líbero e em Comunicação Corporativa pelo Instituto de Empresa de Madrid.
