Friday, 29 de March de 2024 ISSN 1519-7670 - Ano 24 - nº 1281

Facebook e o debate ético sobre o uso de dados

Um estudo do Facebook sobre as emoções dos usuários levou a um exame de consciência entre os pesquisadores e pedidos para que diretrizes mais éticas sejam estabelecidas no mundo on-line.

“Eu acredito que esse incidente todo vai provocar uma reavaliação” na relação entre empresas e pesquisadores acadêmicos, diz Susan T. Fiske, a editora do estudo e professora de psicologia e relações governamentais da Universidade de Princeton.

Pesquisadores do Facebook e da Universidade Cornell manipularam o “feed” de notícias de cerca de 700 mil usuários do Facebook por uma semana em 2012 para sondar como as emoções se espalham nas redes sociais.

Eles descobriram que usuários que viram mais postagens positivas tenderam a escrever mais mensagens positivas, e vice-versa. O estudo foi divulgado na publicação acadêmica “Proceedings of the National Academy of Sciences” (PNAS) em junho, mas provocou indignação após um blog afirmar, na sexta-feira, que ele usou os usuários do Facebook como “ratos de laboratório”.

O Facebook informou na segunda-feira que o estudo pode ter incluído usuários com menos de 18 anos. A empresa afirmou que revisou suas diretrizes desde que a pesquisa foi feita e que estudos propostos agora passam por três avaliações internas, incluindo uma centrada na privacidade dos dados dos usuários.

O incidente destaca como empresas e pesquisadores usam o vasto volume de dados criados on-line. Empresas de internet incluindo o Facebook e o Google constantemente fazem ajustes nos sites por razões que incluem levar o usuário a clicar em mais links, ou mais anúncios, que são as principais fontes de receita.

Qualquer teste era possível

As empresas mostram diferentes versões da mesma página para grupos de usuários e monitoram como eles reagem. Na indústria, isso é conhecido como teste “A/B”. Os primeiros testes A/B focavam questões como as cores do site. Agora, o processo é usado “para levar as pessoas a fazerem exatamente o que a empresa quer que elas façam nos websites, nos aplicativos e na vida”, diz Nancy Hua, diretora-presidente da Apptimize, uma empresa novata que realiza esses testes para outras companhias. Uma porta-voz do Google não quis comentar.

Os críticos dizem que esses testes envolvem questões éticas quando conduzidos em redes amplas como o Facebook, com 1,3 bilhão de usuários. “É de fato uma oportunidade para discutir a grande força que essas empresas têm sobre nossas vidas”, diz Zeynep Tufekci, professor de sociologia da Universidade da Carolina do Norte que estuda os impactos sociais da tecnologia.

Fiske, a editora do estudo, afirma que tinha preocupações éticas a respeito do trabalho porque os pesquisadores podiam ser considerados manipuladores do humor das pessoas. Ela disse que suas preocupações foram dissipadas depois que os autores contaram que a pesquisa não precisaria de uma avaliação integral do Conselho de Avaliação Institucional da Cornell, porque ele era baseada em “dados pré-existentes”, cuja identificação havia sido eliminada, o que tornava os usuários anônimos para os pesquisadores.

A Cornell emitiu uma nota em seu site afirmando que seu conselho concluiu que não teria que avaliar o estudo porque o professor envolvido apenas teve acesso aos resultados e não aos dados dos usuários.

A equipe do Data Science, do Facebook, quer utilizar os dados dos usuários para pesquisas de mercado e acadêmicas. Ela tem feito estudos sobre tudo, desde quem está assistindo à Copa do Mundo até como a comunicação dos usuários muda depois que os parceiros terminam o relacionamento e se mensagens positivas se espalham mais rapidamente que as negativas.

Quando o Facebook trabalha com pesquisadores acadêmicos, os dados que fornece devem ser aprovados pelo conselho de avaliação independente da universidade. Mas alguns estudiosos dizem que o incidente ressaltou o enfraquecimento desse sistema, porque esses conselhos não estão acostumados a dados coletados de milhões de usuários que estão publicando informações sobre si mesmos online.

“Os conselhos de avaliação institucional ainda estão colocando os pés nas pesquisas de redes sociais”, afirma Leslie Meltzer Henry, membro do corpo docente do Instituto de Bioética da Universidade Johns Hopkins.

Andrew Ledvina, que trabalhou como cientista de dados no Facebook entre 2012 e 2013, disse que não existe um conselho de avaliação interna supervisionando os estudos. Ledvina acrescentou que ele e outros membros da equipe científica podiam fazer quase qualquer teste que quisessem, desde que não incomodassem os usuários. Ledvina disse que às vezes era difícil se lembrar que seus testes envolviam centenas de milhares de pessoas, mesmo representando apenas uma pequena fatia dos usuários do Facebook.

“Um buraco cultural”

Muitos pesquisadores se questionaram se os 689.003 usuários do Facebook cujo feed de notícias foi alterado foram devidamente informados sobre o estudo e o autorizaram. O Facebook afirmou que os usuários concordaram com os estudos quando eles se inscreveram na rede e concordaram com os termos de serviço do site.

“É absolutamente ridículo sugerir que clicar em uma caixa em um site constitui o anúncio de um consentimento”, afirma David Gorski, um cirurgião, pesquisador e editor do blog Science-Based Medicine. Ele disse que a reação ao experimento mostrou um “verdadeiro buraco cultural” entre os pesquisadores médicos e da área de psicologia e os de empresas de tecnologia. No mínimo, acrescenta ele, os usuários teriam que ter a chance de escolher não participar do estudo.

******

Reed Albergotti e Elizabeth Dwoskin, do Wall Street Journal