
(Imagem gerada IA/Eric Samuel)
A incorporação da inteligência artificial ao jornalismo e à comunicação pública não deve ser vista como uma disputa entre pessoas e máquinas. O que se contrapõe, de fato, são processos frágeis e práticas responsáveis de uso da tecnologia. Ferramentas generativas aceleram a apuração, a edição e a distribuição de conteúdos, ampliando velocidade e alcance.
O desafio ético central não está em usar ou não IA, mas em compreender como utilizá-la com critérios profissionais, transparência e base legal sólida. A adoção madura da tecnologia depende de três pilares fundamentais: curadoria humana contínua, governança de dados alinhada à legislação e prestação de contas sobre métodos, fontes e limitações.
Sem esses elementos, eficiência se transforma em risco reputacional. Com eles, a tecnologia potencializa o trabalho e gera valor público.
O capitalismo de vigilância e a plataformização
A discussão sobre IA não pode ignorar o contexto mais amplo da economia dos dados. Shoshana Zuboff (2021) descreve o capitalismo de vigilância como um sistema que converte a experiência humana em matéria-prima para mercados de predição, transformando comportamentos em dados exploráveis.
Quando personalização e segmentação passam a orientar a entrega de conteúdo, cresce a responsabilidade de redações e órgãos públicos em documentar critérios, limites e impactos da atuação algorítmica. O ambiente de plataformização reforça assimetrias informacionais e amplia a necessidade de mecanismos de transparência, governança e proteção da privacidade.
Nesse cenário, o uso de IA não é apenas uma decisão tecnológica. É também uma escolha sociopolítica, que exige instituições capazes de enfrentar a opacidade das plataformas e proteger o interesse público.
Eficiência produtiva e responsabilidade profissional
Pesquisas recentes mostram ganhos reais de eficiência com a adoção de IA em rotinas comunicacionais. Ferramentas automatizam tarefas repetitivas, agilizam análises e ampliam a capacidade de triagem de grandes volumes de dados. Nada disso elimina o papel da supervisão humana. Ao contrário, torna esse papel ainda mais central.
No jornalismo, a ambivalência da tecnologia é evidente. As mesmas arquiteturas que aceleram a apuração podem amplificar a desinformação quando mal treinadas ou mal monitoradas. Modelos baseados em Machine Learning e Deep Learning coletam, cruzam e geram dados em escala. Sem controle, podem produzir narrativas difíceis de distinguir a olho nu. Com protocolos adequados, contribuem para a verificação de padrões linguísticos, visuais e contextuais.
A eficiência só se sustenta quando acompanhada de responsabilidade. A tecnologia amplia a capacidade de ver, mas não substitui o olhar crítico que dá sentido, contexto e relevância às informações.
Governança algorítmica e prestação de contas
A experiência brasileira oferece sinais importantes de como criar salvaguardas. A Associação Brasileira de Jornalismo Investigativo desenvolve materiais, fluxos auditáveis e orientações para o uso responsável de IA na apuração. O foco está na produtividade da investigação, na supervisão humana e na transparência sobre quando e como a tecnologia foi empregada.
Em outra frente, cresce o uso de protocolos como o C2PA, que autentica a origem e o histórico de edição de conteúdos digitais. Essa padronização reduz incertezas, protege direitos autorais e fortalece a rastreabilidade em ambientes saturados de desinformação.
Governança algorítmica envolve práticas concretas. Inclui dupla checagem de resultados sensíveis, registro de versões e prompts, uso apenas de imagens licenciadas, referência explícita a dados e métodos, auditorias de viés e testes de impacto social. Exige também aderência rigorosa à legislação de proteção de dados, sobretudo no tratamento de informações sensíveis e na definição da base legal para personalização de conteúdo.
Na prática cotidiana das redações, ferramentas de transcrição e reconhecimento óptico aceleram a análise de milhares de páginas de documentos. A tecnologia amplia o alcance da apuração, mas a interpretação continua sendo uma atribuição humana. É a decisão editorial que organiza, contextualiza e confronta informações.
O jornalista como editor de sistemas
O avanço da IA exige que o jornalista assuma um novo papel: o de editor de sistemas. Cabe ao profissional definir perguntas, estabelecer limites, conferir sentido e avaliar impactos. A tecnologia é meio, não fim. Quando usada com rigor ético e clareza operacional, reduz ruídos, qualifica informações e fortalece a confiança pública.
A tríade essencial para esse caminho é clara. Curadoria humana inegociável. Governança de dados com base legal. Transparência plena sobre processos e métodos. Eficiência sem ética não é inovação. É atalho de alto risco. Quando documentado e auditável, o uso da IA torna-se aliado da informação de qualidade e do interesse público.
***
Eric Samuel é jornalista, gestor público e cursa pós-graduação em Comunicação e Inteligência Artificial pela PUC Minas. Atua na comunicação governamental em Minas Gerais e pesquisa ética, transparência e tecnologia na mediação informacional.
