Tuesday, 23 de July de 2024 ISSN 1519-7670 - Ano 24 - nº 1297

Liberdade de expressão na era do YouTube

O vídeo anti-Islã Inoccence of Muslims (A Inocência dos Muçulmanos, em tradução livre) trouxe à tona o debate enfrentado diariamente pelas empresas de internet sobre que manifestação de expressão é permitida e onde. Ocasionalmente, elas têm que explicar como decidem isso, que leis e valores seguem e como distinguem entre o que é nocivo e deve ser retirado ou o que pode ficar no ar.

O Google, proprietário do YouTube, restringiu, no Egito e na Líbia, o acesso ao vídeo que satiriza Maomé, após a morte do embaixador americano e de três membros de sua equipe na Líbia. Depois, retirou o filme do ar em mais cinco países, por violação de leis locais. Alguns países optaram por bloquear o acesso ao YouTube, embora isso não tenha impedido a violência: no Paquistão, onde as eleições serão realizadas em breve, protestos deixaram 19 mortos na semana passada. O Google não retirou o vídeo da web em todo o mundo por considerar que ele não atingia a definição de “discurso de ódio”.

O episódio reflete como as empresas podem ser opacas em explicar seus veredictos sobre o que pode ser divulgado por meio de suas plataformas. Google, Facebook e Twitter recebem, por semana, milhares de reclamações sobre conteúdo.

Criação de um conselho

Na opinião de Tim Wu, professor de direito da Universidade da Columbia, o Google agiu certo ao restringir, de maneira seletiva, o acesso ao vídeo anti-Islã após os episódios de violência. No entanto, o público deveria saber mais sobre como empresas particulares tomam estas decisões. Wu sugeriu que fosse criado um conselho formado por especialistas regionais ou usuários sérios do YouTube de todo o mundo para tomar decisões difíceis, como as da retirada ou não do vídeo anti-Islã.

O Google não respondeu à proposta, divulgada em um post no blog do The New Republic. Certamente, a escala e a natureza do YouTube tornam a tarefa assustadora. Qualquer análise requer passar por bilhões de vídeos e verificar as leis de diversos países. “Estamos apenas despertando para a necessidade de alguma atenção pública, supervisão ou análise para as decisões dos mais poderosos controladores privados da expressão”, afirmou Wu.

Normas

Em declaração, o Google disse que faz julgamentos com nuances sobre conteúdo. “É por isso que sites com conteúdo gerado por usuários têm normas claras e remove posts ou vídeos que as violam”, disse. A Global Network Initiative, ONG formada por executivos, acadêmicos e defensores da liberdade de expressão e da privacidade, emitiu normas voluntárias sobre como responder a pedidos de filtrar conteúdo. A organização sionista Anti-Defamation League reuniu executivos, funcionários do governo e defensores para discutir como definir conteúdo que incite o ódio e o que fazer sobre ele.

A portas fechadas, empresas de internet estão tomando decisões duras sobre conteúdo. No começo do ano, Apple e Google retiraram um aplicativo produzido pelo Hezbollah. Em 2010, o YouTube retirou links para discursos do clérigo americano ligado ao al-Qaeda, Anwar al-Awlaki, no qual ele pregava violência terrorista. Na época, a empresa disse que eles poderiam incitar atos violentos.

Em raras ocasiões, o Google tomou passos para educar usuários sobre conteúdo ofensivo. Por exemplo, os resultados mais buscados para buscas com a palavra “judeu” incluem um link para um site antijudaico violento, seguido por um link promovido pelo Google, com uma explicação de que a empresa não censura resultados, apesar das reclamações. Para Susan Benesch, que estuda discurso de ódio que incita violência, seria mais inteligente ter mais explicações como esta, pelo menos para promover o debate.

As empresas alegam que obedecem a lei de cada país nos quais fazem negócios. E que seus empregados e algoritmos proíbem conteúdo que pode violar suas normas, que são públicas. O YouTube proíbe expressão que incite ódio, que é definida pelo site de compartilhamento de vídeos como o que “ataca ou humilha um grupo” com base na raça, religião, entre outros. O Google e o Facebook também proíbem conteúdo que incite o ódio. O Twitter não deixa explícito. De qualquer maneira, segundo especialistas, é difícil ter uma definição universal de conteúdo que incite ódio.

Shibley Telhami, cientista político da Universidade de Maryland, espera que a violência gerada pelo vídeo que satiriza Maomé encoraje uma conversa com mais nuances sobre como proteger a liberdade de expressão levando em consideração valores como segurança pública. Leis internacionais não protegem manifestação de expressão destinada a causar violência. Um dos desafios da era digital, como o caso do YouTube mostra, é que a manifestação de expressão articulada em uma parte do mundo pode causar confusão em outro. A questão é se as empresas conseguem prever que palavras e imagens podem gerar a violência. Informações de Somini Sengupta [The New York Times, 23/9/12].