Tuesday, 23 de April de 2024 ISSN 1519-7670 - Ano 24 - nº 1284

Algoritmos, bolhas e redes: entrevista com Leandro Tessler

(Foto: Arquivo pessoal)

Leandro Tessler é professor do departamento de Física Aplicada do Instituto de Física Gleb Wataghin (IFGW) da Universidade de Campinas, a Unicamp. Tessler é bacharel, mestre e doutor em Física, e além de pesquisador, é divulgador científico: mantém desde 2008 o blog ‘‘Cultura Científica’’ e é bastante influente no twitter (@leandrotessler). É colaborador do Grupo Infovid e um dos fundadores e coordenadores do Grupo de Estudos da Desinformação em Redes Sociais (EDReS), formado por pesquisadores das mais diversas áreas de formação. O grupo é coordenado por Tessler e por Leda Gitahy, do departamento de Política Científica e Tecnológica do Instituto de Geociências (IG), da Unicamp. 

Em entrevista ao Observatório de Imprensa, o professor fala sobre o grupo e sobre alguns projetos de pesquisa envolvendo esse tema.

Nicole De March – Como nasceu o EDReS?

Leandro Tessler – Tenho trabalhado com divulgação científica há pelo menos dez anos, talvez mais. Mantenho um blog, ‘‘Cultura Científica’’, que me permitiu conhecer um pessoal jovem, muito engajado em divulgação científica. Alguns desses blogueiros que conheci viraram vlogueiros, e eu sempre mantive contato com os que mais me impressionaram.

Há alguns anos, a Unicamp criou um processo para ter um professor externo. À época, Átila Iamarino estava fazendo muito sucesso com o canal Nerdologia e eu o convidei para ministrar a disciplina ‘‘Divulgação Social Nas Novas Mídias’’ com o intuito de ensinar estratégias de comunicação e divulgação de vídeos no YouTube. A disciplina foi um sucesso: a partir dela, muitos se interessaram em fazer pesquisa em divulgação científica. Um aluno em particular queria fazer doutorado no assunto, mas nessa época eu estava muito curioso sobre a formação de “bolhas” em redes sociais, olhando muito para o YouTube, que como todas essas redes sociais têm um algoritmo de recomendação.  Uma consequência desse algoritmo é que ele forma “bolhas”: uma vez que você dá preferência para determinado tipo de conteúdo, e como o objetivo do algoritmo é te manter o maior tempo possível dentro da plataforma, ele vai acabar fazendo circular vídeos ou outros conteúdos que são do seu interesse. Eu queria entender isso melhor. Além disso, tinha o trabalho do professor Virgílio Almeida com outros pesquisadores da UFMG que mostrava a influência do mecanismo de passagem de vídeos do YouTube para o WhatsApp, na última eleição

A profa. Leda Gitahy estava trabalhando com desinformação de uma maneira mais geral, não especificamente em redes sociais. Simultaneamente, eu estava orientando um doutorado sobre terraplanismo no YouTube. Então, juntamente com Iamarino, resolvemos começar o grupo EDReS.

Nesse meio tempo começou a pandemia do coronavírus, que desde o início foi uma fonte contínua de desinformação. Nós começamos a monitorar as mensagens que estavam circulando com esse tipo de desinformação, e pedimos que as pessoas nos encaminhassem os tweets que continham desinformação. Assim, coletamos muitos dados: a desinformação na pandemia cresceu e se tornou um assunto muito relevante.  

NDM –  O quê são essas “bolhas”?

LT – Uma bolha é um grupo de pessoas, que pode ser muito grande, de onde você não consegue sair. É um grupo de relacionamento dentro da tua rede social, que não abre a possibilidade de você conversar com outras pessoas, uma comunidade que se retroalimenta. Por exemplo: no caso de uma pessoa cujos contatos acreditam que a vacina causa miocardite em adolescentes, para ela é óbvio que a vacina cria miocardite em adolescentes. Essa pessoa não tem acesso à informação de que vacina não causa essa doença; ela fica presa nessa bolha.

NDM – Atualmente, sua pesquisa trata de sistemas complexos; poderia contar um pouco sobre o tema?

LT – Então, eu comecei a olhar para o sistema de redes sociais como um sistema complexo, onde todo o sistema tem propriedades que as partes separadas não têm. Meu aluno de doutorado que estudava terraplanismo agora está usando a chamada  Teoria de grafos para entender a formação bolhas de negacionismo das vacinas e a ligação entre elas. Estamos estudando a centralidade desses perfis e bolhas. Em outras palavras, estamos estudando quais bolhas/perfis têm maior número de conexões com as outras, o que nos permite identificar quais são as bolhas/perfis mais influentes e quais bolhas/perfis são mais próximas entre si. A nossa hipótese é que uma vez você cai na bolha, fica dentro dela. Também analisamos a origem de determinadas mensagens sobre a vacina. Escolhemos trabalhar com o Twitter porque é mais fácil do que trabalhar com desinformação em vídeos.  O que é novo na tese desse aluno é a análise da similaridade entres esses diferentes perfis/bolhas através da similaridade linguística entre os twitts: estamos comparando a maneira como esses perfis escrevem, partindo do princípio de que o autor que escreve uma desinformação lê a desinformação de outra pessoa.

Os mecanismos saem um pouco do escopo da Física, já que são mecanismos psicológicos. Mas eu ainda vejo as redes sociais como um meio contínuo no qual a desinformação se propaga.

NDM – Quais são seus os outros interesses na área de desinformação?

LT – Estou muito interessado em usar ferramentas de aprendizado de máquina para ajudarem na identificação de desinformação e também para analisar os mecanismos de propagação da desinformação nas redes. Além disso, quero descrever o comportamento dessa desinformação na rede. Por exemplo: na eleição é importante descobrir a autoria de mensagens apócrifas ou anônimas no Twitter; será que a gente não consegue resolver isso usando ferramentas de inteligência artificial? Quer dizer, treinar uma rede neural artificial conhecendo como é o padrão de escrita de lideranças extremistas, por exemplo.

Perfis anônimos espalhando desinformação são um grande problema. Mas é possível identificar quem escreve. É possível identificar quem escreveu a desinformação, só que para isso é necessário que esse usuário tenha tido uma conta anterior e escrito nela, para que possamos “treinar” o algoritmo. O algoritmo precisa saber como diferentes pessoas escrevem, para que possa fazer a relação entre o tipo de mensagem escrita e a autoria dela. A minha ideia é usar as ferramentas que eu conheço de física e de inteligência artificial para fazer o que se chama de Civic Tech, quer dizer, usar isso para o bem da sociedade, para entender mecanismos ilícitos que podem definir coisas importantes na sociedade; é isso o que me interessa. 

Eu aprendi com o professor Almeida que nós temos muito para aprender com o pessoal de humanidades, com o pessoal de sociologia, porque eles já vêm trabalhando com esses assuntos há muito tempo e nós temos as ferramentas para poder auxiliá-los nessa questão. Nesse sentido, um grupo interdisciplinar funciona muito bem.

NDM – Como vocês monitoram essas mensagens?

LT – Usamos um bot (robô) para isso. O Twitter oferece uma conta onde você pode acessar todos os tweets que existem. Então o meu doutorando ficou gravando os tweets em língua portuguesa que continham a palavra “vacina”. Nós usamos uma API do Twitter, uma interface de programação para uma aplicação. O Twitter e todas as redes sociais têm uma interface programável. Por exemplo, em vez de eu colocar alguém para ler, ou procurar vídeos sobre algum assunto, a API traz todos os vídeos para mim. Além disso, todas as APIs são compatíveis com a linguagem de programação que nós estamos usando, de forma que funciona super bem para nós.

 

***

Nicole de March é é mestre e doutora em Física (UFRGS). Pós-doutoranda do LABTTS (DPCT-IG/Unicamp) e membro do Grupo de Estudos de Desinformação em Redes Sociais (EDReS).