Wednesday, 08 de May de 2024 ISSN 1519-7670 - Ano 24 - nº 1286

Quem não se comunica se trumbica

James Gleick, jornalista e autor de sucessos editoriais como Caos – a criação de uma nova ciência (Campus, 2002) e Feyman – a natureza do gênio (Gradiva, 1993), tem uma legião de admiradores, inclusive no Brasil. Com o raro talento de escrever bem e explicar de maneira acessível, porém precisa, conceitos científicos complicados, Gleick fez escola no jornalismo científico.

Em The information, livro publicado recentemente e ainda não disponível em português, Gleick fala de quase tudo que é relacionado à informação, começando na comunicação por tambores na África. Espantosamente era uma comunicação binária, como nos computadores e na internet, pois a língua desses africanos era tonal, como o chinês. Bastavam dois tambores, com dois tons, para emitir uma comunicação baseada na linguagem falada, fonética, diferentemente da linguagem do telégrafo, que é baseada numa codificação da escrita.

A informação escrita, mostra Gleick, foi a condição necessária para o aparecimento da ciência moderna e da civilização, tornando o conhecimento cumulativo, facilmente recuperável e transmissível. Do aparecimento da escrita cuneiforme até os livros, passando pelos papiros para chegar às enciclopédias e dicionários, foi uma jornada relativamente breve nos quase 40 mil anos anteriores de sociedades ágrafas. O primeiro dicionário, por exemplo, esclarece Gleick, foi uma empreitada revolucionária, pois reinava a cacofonia, sem padronização da escrita. O primeiro exemplar apareceu em 1582 e tinha poucos milhares de verbetes, entre os quais não constava a palavra “dicionário”.

Tudo isso recheado de histórias saborosas dos gênios por trás dessas revoluções. Muitos deles fizeram descobertas notáveis e vitais para a era da informática muito antes de alguém sequer sonhar com um mundo dominado pela computação e pela internet. George Boole, por exemplo, criou em 1847 os operadores lógicos que atualmente fazem o Google funcionar. Uma das personagens mais fascinantes de The information é Ada Byron, filha do famoso poeta com uma professora de matemática. Ada, que nasceu em 1815, tinha talento lógico e foi a primeira a escrever uma rotina matemática para algum dispositivo de operações em etapas, o que nem existia na época. Ela é reconhecida, portanto, por ter escrito o primeiro programa, ou software, quase 150 anos antes de aparecer o primeiro hardware de computador.

Formulação elegante

O primeiro dispositivo teórico para processamento de informações e operações em etapas, décadas antes do primeiro computador, foi projetado, conta Gleick, por Alain Turing. Esse gênio britânico, que também ajudou a decifrar as mensagens secretas dos militares nazistas na Segunda Guerra Mundial, mostra que a poderosa lógica que mudou a civilização não foi páreo para a estupidez humana: ele não suportou a pressão dos algozes que queriam “curá-lo” à força de seu homossexualismo e tirou sua própria vida em 1954.

Apesar da grande quantidade de histórias saborosas, The information não é uma leitura fácil. Primeiro porque o autor precisou expurgar o sentido corriqueiro, vago e amplo que a palavra “informação”tem para as pessoas comuns e colocá-la no rol dos termos científicos precisos e sem ambiguidades. Ou seja, numa parte do livro o leitor tem que desaprender conceitos do senso comum, e isso nem sempre é fácil.

Num paralelo histórico, escreve Gleick, é algo como o que aconteceu com a palavra “força”. Durante milhares de anos na cultura filosófica e escrita, força era um termo subjetivo que abrigava significações que iam desde o poético até a alma do desconhecido. Mesmo quando Aristóteles tentou especular sobre forças, o resultado foi uma barafunda de metafísica e cosmologia religiosas.

Mas quando o inglês Isaac Newton tratou do assunto, expurgou todos esses significados prosaicos da palavra, restringindo sua definição e uso a apenas uma classe de fenômenos. Na maior das revoluções científicas até então, Newton podou todos os significados subjetivos da palavra para construir seu castelo teórico em apenas um conteúdo, com apenas quatro sinais: F=ma. Ou seja, a força F é apenas aquilo que acontece quando uma massa m é submetida a uma aceleração a. Com isso, o cientista inglês conseguiu quantificar de maneira precisa todos os grandes e pequenos efeitos mecânicos da natureza, desde a queda de uma maçã em sua cabeça até a órbita dos planetas. Antes de Newton podia-se falar em força do amor ou do ódio no mesmo pé de igualdade do esforço para empurrar uma pedra na construção de pirâmides: elas eram sensações governadas por entidades desconhecidas ao intelecto humano. “Newton se apropriou de palavras que eram vagas antigamente – força, massa, movimento e mesmo tempo – e deu a elas novos significados”, escreve Gleick. A palavra “energia” também foi apropriada pela ciência com um sentido bem restrito, descartando os sentidos filosóficos e mundanos de algo vigoroso e forte.

O principal personagem do livro de Gleick fez um expurgo parecido nos amplos significados da palavra “informação”. Em 1948, mesmo ano da invenção do transistor, dispositivo que provocou uma revolução e uma nova era na história da civilização, o americano Claude Shannon, aos 32 anos, cometeu uma proeza de síntese parecida à de Newton. Informação, pontificou ele, é única e exclusivamente o que acontece quando se envia de um transmissor para um receptor uma determinada quantidade de caracteres (ou sinais, letras, sons ou impulsos elétricos) que fazem parte de toda a coleção, ou repertório, de sinais disponíveis.

Na forma matemática sintética, H, a informação transmitida, é igual a n, o número de sinais emitidos, multiplicado pelo logaritmo de s, o “alfabeto” ou conjunto de todos os sinais disponíveis. Ou seja: H=n log s. A presença do intimidador logaritmo tem a ver com a probabilidade de ocorrência dos sinais possíveis.

Ok, não é tão fácil como F=ma.

Aplicações concretas ajudam a entender. O velho telégrafo usava apenas dois sinais n – o longo e o curto –, e o conjunto de combinações possíveis, o s, era formado pelas 26 letras do alfabeto, mais os números de zero a nove. Portanto, a quantidade de informação que o telégrafo podia transmitir era baixa. A formulação matemática de Shannon revolucionou as telecomunicações, especialmente a telefonia da época, pois permitiu projetar linhas que levavam em conta os ruídos de interferência, a velocidade de transmissão e outros fatores. Foi ele o criador da palavra “bit”, a unidade básica e mínima de medida de informação. Hoje vivemos no mundo dos trilhões de bits (os terabits) mas não existe o meio bit, pois ele é indivisível.

Como a equação de Shannon é idêntica à da entropia – a medida de ordem ou desordem de sistemas termodinâmicos – saltou a ideia simples de que quanto maior a entropia, ou confusão ou mesmo redundância, menor era a quantidade de informação útil. E quanto menor a entropia, menor a redundância, mais ordenado era o sistema e mais informação era contida. Aquilo que é imprevisto e surpreendente tem baixa entropia e alta informação. No fim do Universo, com todas as temperaturas equalizadas e baixas, não haverá diferenças térmicas e, portanto, não existirão moléculas mais quentes transferindo calor para as mais frias – o que é, no fundo uma forma de transferir informação.

Mas, como escreve Gleick, a elegante formulação matemática de Shannon teve sérias contrapartidas. Em primeiro lugar, e mais gravemente, é que ela mandou para o limbo a ideia de significado de uma mensagem. “Ele [Shannon] simplesmente declarou que o sentido era irrelevante para os problemas de engenharia”, escreve Gleick. Uma comunicação com alta quantidade de informação podia ser apenas uma algaravia ininteligível, não importava. Algo parecido a um engenheiro de tráfego que contabiliza a passagem de jamantas numa estrada, sem se importar com o que elas carregam.

Mundo caótico

Até hoje, para o cidadão comum, é difícil entender o que é informação sem levar em conta o sentido ou conteúdo. Para essa bizarra consequência, Gleick foi buscar o endosso de Jorge Luis Borges. No conto “Biblioteca de Babel”, Borges diz existir um país remoto, no qual “bibliotecários repudiam o tolo e supersticioso costume de encontrar significados em livros e igualam isso com a tentativa de achar sentido em sonhos ou nas caóticas linhas da palma da mão”.

Outro efeito colateral foi a teoria de Shannon ter se tornado citação da moda, aplicada aos mais bizarros conteúdos vanguardistas. Gleick arrola em seu livro várias aplicações lunáticas da equação logarítmica, desde a biologia até a antropologia. Um acadêmico trocista chegou a escrever um paper sobre “Informação, fotossíntese e religião”, que muita gente leu e ao qual deu crédito.

No Brasil, por exemplo, a ideia chegou ao público leigo em Informação, linguagem e comunicação (Editora Perspectiva, 1968), um interessante livrinho de Décio Pignatari, na onda da tropicália e do concretismo. Chegou como uma geleia geral, na qual Shannon é citado apenas uma vez, sem o prenome, para enfiar goela abaixo dos leitores a sua equação matemática. Todavia, ele teve grande impacto na intelectualidade vanguardista. Quando tentaram enquadrar o popular Chacrinha e sua buzina na teoria da informação, ele debochou: “quem não se comunica se trumbica”. “Eu vim para confundir, não para explicar”, zombou aquele que foi alcunhado de “o grande comunicador”.

A mais polêmica interpretação da teoria, no entanto, é a de que a informação é uma entidade tão física quanto a massa, a energia, a velocidade ou a gravidade. De fato, ela pode ser quantificada e sua ação, medida com precisão, da mesma maneira em que se mede a corrente elétrica em ampères. Em sua forma mais radical, a informação, com seus bits unitários, é a mais abstrata das formulações da Física. Nela, o Universo seria nada mais que um computador quântico com a tarefa de computar a si mesmo. De fato, toda interação entre partículas, massa, ondas e energia pode ser descrita na forma de uma interação ou troca de informações. Quando um átomo carregado eletricamente, por exemplo, altera o estado e movimento de um elétron que passa na vizinhança, ele pode estar, formalmente, efetuando uma operação lógica – cuja descrição pode ser feita por uma cadeia de operadores lógicos abstratos. Essa, inclusive, é a ideia básica dos computadores quânticos, que prometem revolucionar a tecnologia e a ciência nas próximas duas décadas, quando se tornarem reais. Computadores comuns da atualidade podem simular um fenômeno físico, enquanto computadores quânticos não simulam, mas executam eventos idênticos aos reais. Eles podem ser vistos como computadores nos quais o software e o sistema operacional, em vez do Windows ou do Linux, são as leis da mecânica quântica.

The information é uma obra fundamental para quem quer entender a origem do caótico mundo moderno das comunicações instantâneas. E, no capítulo final, Gleick fala de algo de importância maior: como criar filtros e seleções nas informações que martelam nossos sentidos, para que não nos afoguemos no dilúvio de informações em que estamos metidos.

***

[Flávio de Carvalho Serpa é jornalista]