
Ai Generated (Imagem: Laz Georgoulas/Pixabay)
O avanço da inteligência artificial marca uma mudança inédita: passamos a depender de respostas cujo funcionamento não compreendemos. Diferentemente de tecnologias anteriores, que podiam ser explicadas passo a passo, muitos sistemas atuais operam por processos internos opacos e difíceis de interpretar em detalhe, mesmo para especialistas que compreendem seu funcionamento geral. Esse fenômeno é conhecido na literatura científica como “caixa-preta algorítmica”. Ainda assim, essas ferramentas são cada vez mais consultadas para tarefas intelectuais, da escrita à análise de dados. O paradoxo é evidente: quanto mais recorremos a elas, mais confiamos em resultados cujo mecanismo permanece fora do nosso alcance.
Essa dependência afeta diretamente nosso modo de julgar informações. O cérebro humano tende a confiar mais quando consegue perceber a lógica de um processo; quando essa lógica não é visível, passa a recorrer a atalhos mentais para decidir em que acreditar. Esses atalhos (conhecidos como heurísticas) estão ligados a fenômenos bem documentados na psicologia, como o viés de autoridade, o efeito halo e a fluência cognitiva.
Sistemas de inteligência artificial acabam se beneficiando desse ponto cego cognitivo: produzem respostas claras e plausíveis mesmo quando o processo que as gerou não é acessível à interpretação humana. Casos recentes ilustram esse risco. Em 2023, um advogado apresentou em tribunal um documento elaborado com auxílio de inteligência artificial contendo decisões judiciais inexistentes. As citações eram plausíveis, bem redigidas e juridicamente verossímeis, mas falsas. O erro só foi descoberto quando o juiz tentou localizar os precedentes citados no processo contra a companhia aérea Avianca. Episódios assim mostram como plausibilidade formal pode ser confundida com confiabilidade factual.
Essa vulnerabilidade aumenta porque esses sistemas não apenas informam: apresentam respostas em tom seguro e adaptado à linguagem do interlocutor, sinais que a mente associa automaticamente a credibilidade. Não é o conteúdo que primeiro convence, mas a forma. Estudos em psicologia cognitiva mostram que julgamentos de confiabilidade costumam surgir antes da análise racional detalhada. Ao produzir linguagem que transmite segurança, sistemas automatizados ativam atalhos mentais que reduzem o impulso crítico. O efeito é sutil: passamos a confiar antes mesmo de compreender.
Quando respostas persuasivas surgem antes da compreensão, o impacto deixa de ser individual e passa a ser coletivo. O critério de confiança começa a migrar da verificação para a plausibilidade. Em vez de perguntar se algo é verdadeiro, pergunta-se se parece verdadeiro. Essa mudança altera o próprio julgamento público: não vence quem explica melhor, mas quem produz a resposta mais convincente. Em ambientes mediados por sistemas opacos, a evidência corre o risco de ser substituída pela aparência.
O marco decisivo da inteligência artificial talvez não tenha sido quando máquinas aprenderam a responder, mas quando humanos passaram a aceitar respostas sem exigir explicação. Quando a confiança substitui a compreensão, o critério de verdade deixa de ser conhecimento e passa a ser persuasão. Uma sociedade que troca explicação por plausibilidade não perde apenas rigor intelectual, transfere o próprio julgamento a quem apenas pareça confiável.
***
Suzy Azevedo é jornalista formada, pós-graduada em Comunicação Informacional, e autora de textos reflexivos sobre mídia, comportamento humano e questões sociais. Escreve sobre temas que impactam a forma como as pessoas pensam, se informam e se relacionam com o mundo.
