Notícia falsa põe Facebook em xeque

Escondida no primeiro andar do prédio de um albergue pintado em cores radiantes, na região central de Berlim, está a Correctiv, uma empresa iniciante de mídia, sem fins lucrativos e de tamanho bem pequeno, mas com um enorme trabalho pela frente: ajudar a salvar o Facebook da epidemia de notícias falsas.

O proprietário e editor-chefe é David Schraven, um ex-jornalista barbado, ficando calvo, que costumava comandar as investigações do Funke Mediengruppe, terceira maior editora de mídia da Alemanha. Seu histórico profissional consistia na investigação de terrorismo subversivo e neonazista, não das redes de relacionamento social e de tecnologia. “Nunca liguei para o Facebook ou sua relação com a mídia”, diz.

Sua atitude mudou depois de ver o impacto das “notícias falsas” na internet durante as campanhas do plebiscito sobre a saída do Reino Unido da União Europeia e da eleição presidencial nos Estados Unidos. Ele começou a se preocupar com a possibilidade de “forças destruidoras” que disseminam deliberadamente notícias falsas influenciarem as eleições nacionais alemãs em setembro, quando a primeira-ministra Angela Merkel concorre a um quarto mandato, como mostrou matéria do Financial Times, assinada por Madhumita Murgia e Hannah Kuchler, publicada no Valor de 03/05.

No escritório da Correctiv, recheado de quinquilharias, Schraven checa os fatos de uma notícia que se tornou viral, sobre refugiados que supostamente teriam violentado uma alemã e a arremessado pela janela de um carro. Foi divulgada originalmente por um site chamado “Rape-fugees”, uma mistura das palavras em inglês para “estupro” e “refugiados”.

Histórias como essa tornaram-se mais comuns recentemente na Alemanha, onde a política de braços abertos de Merkel em relação aos refugiados sírios – mais de 1 milhão deles foram admitidos no país desde 2015 – continua sendo uma questão desagregadora. “As pessoas começam a dizer que precisamos levar esses refugiados para fora, que precisamos limpar o país. Vi a mudança de atmosfera em minha própria cidade por causa dessas notícias”, diz. “Acho que [as notícias falsas] poderiam ter um grande impacto nas eleições alemãs.”

Depois de confirmar que a história sobre os refugiados não era verdadeira, ele avisa o Facebook, que, então, adverte os usuários que um verificador de fatos contestou sua veracidade.

A verificação de fatos pela Correctiv é apenas uma das formas como o Facebook vem reagindo à série de controvérsias que abalaram a empresa nos últimos 12 meses. A rede de relacionamento social foi acusada de ter influenciado a eleição presidencial dos EUA em novembro por turbinar a disseminação de notícias falsas e criar “bolhas de filtragem” que isolam os eleitores de outras opiniões.

A plataforma de vídeos do Facebook também foi criticada após alguns episódios medonhos, como o recente vídeo de um assassinato em Ohio, que ficou por duas horas no ar antes der ser denunciado por usuários, e a gravação de um tailandês matando sua bebê, que levou 24 horas para ser removida.

Os protestos levantaram questões mais profundas sobre a natureza do Facebook e suas responsabilidades sociais. Ao longo de seus 13 anos de ascensão até chegar aos atuais 1,9 bilhão de usuários e à conquista de uma parte impressionante do mercado de publicidade digital, o grupo sempre sustentou ser uma “plataforma neutra de tecnologia” com responsabilidade muito limitada sobre o conteúdo que hospeda. Sua única obrigação social, argumentava, era ser um canal para conectar as pessoas. Ao longo dos últimos 12 meses, porém, ficou mais difícil para a empresa sustentar esse argumento.

Depois de o ex-presidente americano Barack Obama ter reclamado sobre a “nuvem de poeira de absurdos” na rede de relacionamento social antes da eleição nos EUA, Mark Zuckerberg, fundador e executivo-chefe do Facebook, deu a impressão de que tentava minimizar o poder do site para influenciar a política. É uma “ideia muito maluca” dizer que notícias falsas no site antes da eleição, como a de que o papa Francisco havia apoiado Donald Trump, haviam influenciado o resultado, disse Zuckerberg.

Sua posição recebeu críticas, mesmo dentro da sede do grupo no Vale do Silício, e Zuckerberg teve de repensar o assunto. O Facebook, então, lançou várias iniciativas, entre as quais as parcerias com verificadores de fatos como a Correctiv, para tentar estancar a disseminação de notícias falsas no site. Em fevereiro, ele apresentou o que pensa para a empresa no futuro, em uma longa carta de 5,7 mil palavras, na qual reconheceu a influência e as responsabilidades do Facebook de uma maneira que nunca havia feito antes. O manifesto se comprometeu a enfrentar o que ele vê como uma “comunidade global fraturando-se”.

Críticos, porém, dizem que a companhia não foi longe o suficiente para reconhecer um simples fato: que ela é uma empresa de mídia. Na posição de maior disseminadora mundial de notícias, dizem os críticos, o Facebook deveria adotar padrões editoriais que reflitam seu poder.

“Por um longo tempo, eles se opuseram ativamente a ser chamados de uma organização de mídia, porque isso implica que eles possam vir a ser regulamentados como tal e que se espere dela gerar um bem público”, diz Philip Howard, professor de estudos de internet e diretor de pesquisas do Oxford Internet Institute. “Acho que eles teriam que ser auditados publicamente e deveriam ter algum cargo editorial.”

Autoridades reguladoras e políticos europeus vêm observando de perto como o Facebook atua. Andrus Ansip, comissário europeu responsável pela mídia digital no bloco, disse ao “Financial Times” em janeiro que os eventos recentes poderiam ser um “ponto de virada” nas plataformas on-line, que correm o risco de perder a confiança dos usuários a menos que assumam maior responsabilidade.

“Estou preocupado, assim como todas as pessoas estão preocupadas, com as notícias falsas, especialmente depois das eleições nos Estados Unidos”, disse Ansip, em janeiro. “Realmente acredito em medidas de autorregulamentação, mas se algum tipo de esclarecimento for necessário, então, vamos estar preparados para isso.”

O Facebook resistiu aos pedidos para contratar um diretor editorial ou para dar outros passos que o tornem mais parecido a uma organização tradicional de notícias. Em vez disso, vem ajustando sua tecnologia para interromper a disseminação de informações incorretas e se oferecendo a pagar verificadores de fatos que assegurem a veracidade das notícias.

“Um relacionamento comercial é algo que está na mesa e estamos muito abertos”, disse Adam Mosseri, chefe da área de alimentação de notícias do Facebook, ao “Financial Times”, em abril. “Isso poderia depender dos indivíduos, mas queremos nos empenhar responsavelmente.”

Nas semanas após a eleição nos EUA, o grupo deu a impressão de que vai assumir mais responsabilidades por seu papel na modelagem da agenda de notícias dos usuários. Começou a trabalhar com verificadores de fatos nos EUA, como a Snopes e a Politifact, e depois se expandiu para a Alemanha e França, e trabalhou com o jornal francês “Le Monde” e outros meios

locais, antes das eleições nacionais francesas. A parceria de Schraven, do Correctiv, com o Facebook na Alemanha começou em março, quando a equipe da Correctiv ativou a varredura com novo sistema de verificação de fatos.

O sistema da Correctiv começa com os usuários denunciando uma notícia como falsa. Daí, a notícia aparece em uma lista de links para que a Corrective a cheque. Cada notícia é classificada em termos de popularidade no Facebook; um termômetro mostra quantas ações, comentários, compartilhamentos ou “curtidas” cada história recebe, para ajudar os verificadores a dar prioridade. Cada notícia checada tem uma bandeira atestando sua veracidade. Se for falsa, inclui-se um link para uma versão alternativa e factual.

“Você ainda pode ler ambas as versões da notícia, mas quando quiser compartilhá-la – e isso é o mais importante -, vai ser avisado que verificadores independentes de fatos não consideram que ela seja confiável”, diz Schraven.

Essas iniciativas, somadas à carta de Zuckerberg, refletem os esforços do Facebook para evitar uma possível rebelião de seus usuários – ou uma revolta dos parlamentares, como os da Alemanha, que querem aplicar multas pela divulgação de notícias falsas.

“Zuck não é, de jeito nenhum, um babaca, mas ele sabe que pode começar a ser visto como um e quer evitar isso”, diz David Kirkpatrick, autor de “O efeito Facebook”.

Quanto mais empresas ficam envolvidas no policiamento do conteúdo de seus serviços, no entanto, maior é o risco de alienar usuários ou possíveis anunciantes.

“Ninguém no Facebook já admitiu que a empresa é de mídia, porque isso teria impacto sobre como eles são tratados pela lei nos EUA”, diz o professor Howard. “Se eles são considerados uma empresa de mídia e recebem dinheiro para veicular anúncios, então são responsáveis pela verdade na publicidade e precisam destinar um orçamento para [veicular] anúncios de serviços públicos, como todas as outras empresas de mídia fazem.”

Com lucro de US$ 10 bilhões em 2016 e ações com alta acumulada de 30% neste ano, as recentes polêmicas do grupo tiveram pouco impacto na confiança dos investidores. “Eles não são necessariamente críticos sociais”, diz o analista Brian Wieser, da Pivotal Research.

Os usuários do Facebook passam uma média de 50 minutos por dia usando seus aplicativos – Facebook, Instagram e Facebook Messenger. Mas e se os esforços para expor as pessoas a outros pontos de vista políticos resultar em um engajamento menor? O algoritmo do grupo é elaborado para manter os usuários no site, de forma a poder mostrar-lhes mais anúncios. Mas isso não se ajusta necessariamente às suas aspirações de ajudar os leitores a encontrar uma fonte de informações precisas.

“Quais [são] as consequências comerciais? Quanta receita ele está disposto a sacrificar para resolver o problema? Essa é a questão fundamental que ele não aborda”, diz o escritor Kirkpatrick.

Por fim, as decisões do Facebook sobre o que mostrar em sua área de alimentação de notícias são nebulosas e, mesmo que tenham as melhores intenções, podem não representar apropriadamente seu público de 2 bilhões de usuários com diferentes nacionalidades, idades e normas culturais.

O grande problema que ninguém quer comentar, embora todos saibam que existe, “é que, no fim das contas, o Facebook vai decidir sobre isso de forma unilateral”, diz Zeynep Tufekci, professora associada na universidade de North Carolina, que estuda o impacto das tecnologias na sociedade.

Em abril, o grupo lançou um projeto de US$ 14 milhões, idealizado para melhorar a integridade de suas notícias on-line. Também lançou uma ferramenta educacional para ajudar a detectar notícias falsas no Facebook, por meio de uma lista com dez dicas. Algumas pessoas, contudo, consideram essas medidas superficiais.

“Acho que a série de passos que o Facebook está tomando para corrigir [o problema] é, em grande medida, superficial e eles tendem a preferir ideias que impõem custos a outras organizações”, diz o professor Howard. “Por que o público deveria arcar com os custos de fazer a verificação de fatos no Facebook?”, pergunta.

De volta ao escritório da Corrective, em Berlim, Schraven é inflexível em sustentar que não deve haver relação financeira entre sua empresa e o Facebook. “Se o Facebook começar a te pagar, então você fica dependente”, diz. “Quando você fica em tal situação, eles podem te dizer o que fazer e, quando você trabalha como verificador de fatos, você precisa trabalhar de forma independente.”

Apesar de suas preocupações quanto à relação com o Facebook, Schraven acredita que a empresa está levando a sério seu papel de arbitrar a qualidade das notícias.

“O Facebook é poderoso porque a confiança na amizade é mais forte do que a confiança em uma marca, como a de um jornal”, diz. “Para nós, o mais importante é resolver um problema que a sociedade tem dificuldade de lidar. Esse é nosso objetivo. E vamos usar nossos recursos sempre que necessário.”

Comentários estão desabilitados para essa publicação