
(Foto: Greta Hoffman/Pexels)
Em 2025, dois casos de uso da Inteligência Artificial por veículos jornalísticos chamaram atenção: a lista de leitura do Chicago Sum-Times e a imagem da Lady Gaga distribuindo pizza publicada pelo InfoMoney. No caso do Chicago Sun-Times, jornal americano que publicou na versão impressa e na versão online uma lista de leitura de verão com livros inexistentes atribuídos a autores reais, matéria supostamente escrita com ChatGPT, o jornal declarou que esse é um momento de aprendizado para todo o jornalismo e que está trabalhando para garantir que isso não aconteça novamente. Enquanto no caso do brasileiro InfoMoney, que se apresenta como um ecossistema de comunicação especializado em investimentos e negócios, foi publicada uma imagem gerada por IA para acompanhar a notícia sobre funcionários de Lady Gaga que distribuíram pizzas para os fãs que esperavam ver a cantora no Rio de Janeiro, a errata informou que o jornal está adotando medidas como o treinamento específicos sobre o uso ético da Inteligência Artificial. Esses casos elucidam a necessidade dos veículos adotarem regras e técnicas para o uso jornalístico da IA, mas também apontam para a necessidade de refletir sobre o perigo de entregar a produção de conteúdo jornalístico para as empresas que comandam a Inteligência Artificial. Esses casos mostram o que acontece quando conteúdos que deveriam expressar a verdade jornalística são produzidos pelas big techs que controlam os sistemas de IA.
A Lady Gaga não entregou pessoalmente as pizzas para os fãs, como mostra a imagem publicada pelo InfoMoney, que, apesar de alertar na legenda sobre a imagem ser produzida por IA, induzia à leitura equivocada sobre o contexto da informação. Tampouco, a indicação da lista de livros para o verão americano foi devidamente verificada por repórteres do Chicago Sum-Times. Essas iniciativas não atentaram para orientações éticas e técnicas que já vinham sendo sistematizadas por jornalistas antes mesmo da publicação dessas matérias. Em 2023, o Repórter Sem Fronteiras e dezesseis organizações parceiras lançaram a Carta de Paris sobre IA e Jornalismo. O documento apresenta princípios éticos que orientam organizações jornalísticas sobre como adotar a IA no exercício do jornalismo e destaca: que “a tomada de decisão humana deve permanecer central” e o dever da “distinção clara entre conteúdo autêntico e conteúdo sintéticos”. A Carta de Paris elucida a importância da ética jornalística nesse cenário de avanço da IA generativa, pontuando que a ética deve orientar as escolhas tecnológicas das organizações jornalísticas e que o uso desses recursos precisa ser transparente para quem acessa a informação. O jornalismo independente brasileiro tem trabalhado com a definição e apresentação de uma política de uso de IA, pontuando os seus limites éticos, como pode ser observado na Agência Pública e no Núcleo. Nessas abordagens, que estão alinhadas à Carta de Paris, fica claro que a produção da verdade jornalística compete a jornalistas.
Talvez para uma geração que foi formada estudando os pressupostos da apuração e da busca pela verdade, com o ethos profissional mais delimitado, as políticas de uso de IA por organizações jornalísticas podem parecer óbvias. Entretanto, é preciso refletir sobre o impacto dos sistemas de IA em uma geração que ainda está entendendo esse ethos profissional e que ainda está aprendendo a fazer escolhas e perguntas sobre os temas trabalhados em suas pautas. Os sistemas de IA chegaram no contexto jornalístico como uma grande revolução que poderia auxiliar na produção de conteúdos, o que não foi analisado com a devida profundidade. Sim, os sistemas de IA podem facilitar algumas áreas do trabalho jornalístico, mas também é preciso problematizar quais bases e decisões sustentam os conteúdos produzidos por esses sistemas. É preciso perguntar mais sobre esses sistemas. Quantos dados de organizações jornalísticas e científicas foram utilizadas na resposta solicitada sem a devida referência? Como foi definido qual informação seria destacada? Será que a informação utilizada como referência não foi revisada? Quais os preceitos éticos e técnicos subsidiam o conteúdo produzido pela IA? Como o sistema de IA faz as escolhas para definir o que é verdade?
Verdade é um conceito caro ao jornalismo e vem sendo estudado para qualificar o processo de seleção e apuração do que é noticiado. Como Wilson Gomes nos lembra, a verdade jornalística não se resume só ao fato ou só à perspectiva, é preciso atentar à “verdade na perspectiva” sobre o fato narrado. Nessa abordagem, é difícil delimitar qual a melhor interpretação do fato, mas é possível estabelecer o que é inverdade, o que não pertence ao fato e se existe verdade na perspectiva apresentada. O jornalista não fica apenas na percepção do fato noticiado, é preciso exercitar a capacidade de pensar sobre o que percebe, para, assim, corrigir defeitos de apreensão e confrontar distorções da sua interpretação. Vale destacar que ainda não estão claros quais valores subsidiam o processo de interpretar e corrigir distorções dos sistemas de IA, se é que esses sistemas estão sendo programados para corrigir distorções. Pode-se questionar se eles não estão apenas querendo agradar e prender a atenção dos usuários, a ponto das pessoas não se questionarem se existe verdade na perspectiva apresentada pelo conteúdo gerado. Junto com esse questionamento, é preciso considerar que os sistemas de IA mais acessados são regulados pelas big techs, empresas com um grande poder econômico e político que estão preocupadas em ter consumidores.
Ao entregar a produção da verdade jornalística para sistemas de IA, estamos entregando o processo de pensar para sistemas controlados por empresas que buscam consumidores e não estão interessadas em fomentar a cidadania. Essa reflexão precisa estar presente nas redações e nos espaços de formação de jornalistas. Ao problematizar o uso de IA por alunos dos cursos de jornalismo, Fabiana Moraes alertou o quanto é catastrófico e melancólico “ver gente jovem e inteligente disposta a terceirizar quase completamente o pensar”. Se os profissionais do jornalismo, que já atuam ou que estão em formação, terceirizarem o pensar para a IA, dificilmente desenvolverão a capacidade de identificar os valores que sustentam as suas escolhas e de exercitar a reflexão sobre o que percebem. Com isso, não conseguirão escolher suas fontes de informação, corrigir defeitos de apreensão e confrontar distorções da sua interpretação, criando uma dependência das empresas que controlam os sistemas de IA.
Nesse cenário, de riscos significativos para a integridade da informação, as big techs vão determinar para o jornalismo o que é verdade. Se a imagem enganosa da LadyGaga com caixas de pizza da InfoMoney e a lista de livros falsa do Chicago Sum-Times já assustam, imagina como seria com essas empresas suplantando seus interesses comerciais em informações que deveriam orientar as escolhas das pessoas. A questão não está na IA dominando os seres humanos, mas nessas empresas definindo o que é ser humano!
Isso quer dizer que os jornalistas não devem usar sistemas de IA? Não. Isso quer dizer que a produção da verdade jornalística compete aos jornalistas e que os profissionais, as organizações jornalísticas e os cursos de jornalismo podem se inspirar em documentos como a Carta de Paris divulgada pela Repórteres Sem Fronteira para um uso mais ético desses sistemas. Talvez, assim, a IA possa auxiliar a produção das organizações jornalísticas de forma transparente e responsável, tendo como principal referência a ética jornalística.
Publicado originalmente em objETHOS.
***
Sílvia Meirelles Leite é Professora da UFPEL e pesquisadora do ObjETHOS
