Especialistas se unem para combater notícias falsas na web

A preocupação com o impacto sobre os eleitores do grande volume de informações falsas visto durante a recente eleição nos Estados Unidos levou especialistas em mídia e em tecnologia a promover “hackatonas”, como são chamadas as maratonas de programação organizadas por hackers, para buscar formas de priorizar a verdade.

Um grupo se reuniu para compartilhar
ideias em torno a um documento do Google de 58 páginas iniciado por Eli Pariser, autor de um livro de crítica às mídias sociais que é sucesso de vendas, “The Filter Bubble: What the Internet Is Hiding from You” (o filtro- bolha: o que a internet esconde de você, em inglês). Um professor fez circular uma tabela com fontes de notícias confiáveis e menos confiáveis para que as pessoas fossem acrescentando comentários, enquanto hackatonas em Princeton e na Área da Baía de San Francisco produziram protótipos de produtos que o Facebook poderia copiar.

O fundador do Facebook, Marck Zuckerberg, teve de agir rápido para adaptar seus pontos de vista. Logo depois da eleição, ele minimizou a importância dos receios de que notícias falsas pudessem influenciar as eleições taxando a ideia de “muito maluca”. Poucos dias depois, no entanto, divulgou um plano de seis pontos nos quais a rede de relacionamento social pretende trabalhar a seguir, como moatrou matéria do The WallStreet Journal, assinada por Hannah Kuchler, publicada no Valor de 30/11

O Facebook, juntamente com o Google, tenta cortar os incentivos financeiros aos fornecedores de notícias falsas impedindo que suas redes de publicidade sejam usadas para vender anúncios em sites de notícias falsas. A First Draft News, que tem sócios como o Facebook, o Twitter, o “The Washington Post” e o “BuzzFeed”, trabalha em um plano para combater notícias enganosas na internet.

Muitas pessoas nos setores de mídia e tecnologia, no entanto, acham que o Facebook poderia fazer mais para impedir a disseminação de notícias falsas em sua plataforma, da qual 44% dos adultos nos EUA dependem para se informar. Sugerem que há vários métodos para detectar notícias falsas tanto por meio de tecnologia quanto de editores humanos.

O professor de ciência da computação Hany Farid, da faculdade Dartmough College, criou tecnologias que identificam conteúdo de fontes extremistas e com pornografia infantil em redes de relacionamento social. Farid destaca que buscar notícias falsas é uma tarefa similar a esse trabalho e ao combate contra spams.

“É falta de franqueza dizer que é um problema muito difícil porque assim que há um incentivo financeiro, eles ficam bem mais espertos”, diz. “As mídias sociais e a internet alcançam milhões e milhões de pessoas, provocam danos incríveis, propagam ódio e influenciam eleições, eles precisam levar essa responsabilidade a sério.”

Muitos argumentam, contudo que uma verdadeira checagem dos fatos não pode ser feita sem mais envolvimento humano para monitorar a veracidade, por exemplo, da barra lateral “Itens Populares” do Facebook, em um momento no qual a empresa resiste a ser chamada de uma empresa de mídia e nos últimos meses abriu mão dos poucos funcionários editoriais que tinha.

O Wikipedia tornou-se modelo de como uma organização pode distribuir informações confiáveis, mesmo sem empregar um quadro editorial. Katherine Maher, diretora-executiva da fundação Wikimedia, organização sem fins lucrativos que opera a Wikipedia, diz que a transparência é a chave para criar uma comunidade que escreva em tom neutro e siga políticas detalhadas sobre quais fontes usar. Cada edição da enciclopédia on-line pode ser rastreada para determinar quem introduziu algo tendencioso ou fatos que induzam ao erro.

Ela diz que o Wikipedia, com audiência de quase 1 bilhão de pessoas a cada mês, atende a uma audiência similar ao Facebook, mas ressalta que a rede de relacionamento social não é de forma alguma transparente.

“No Facebook, há uma ‘entrega única’ de informações, muitas vezes desprovidas de contexto, que você não sabe de onde vêm, quem escreveu e por que estão sendo mostradas a você, por causa do algoritmo”, disse Maher. “As pessoas geralmente são sensatas se você lhes dá a oportunidade de aprender sobre as informações na frente delas.”

Uma equipe de estudantes ganhou um prêmio patrocinado pelo Google na hackatona de Princeton na semana passada por ter criado um protótipo de um produto que faz exatamente isso: mostra aos usuários do Facebook uma “classificação de confiança” das informações que leem, com base em um rating de segurança fornecido pela “World of Trust”.
Nabanita De, uma estudante indiana de 22 anos dessa equipe, que criou a extensão fIB do navegador de internet Chrome, disse que o grupo planeja expandi-la de forma a que possa identificar fotos que passaram por Photoshop e notícias falsas de organizações de comunicação respeitáveis. Tentar operar o produto a partir de servidores independentes vem sendo um problema, já que 25 mil pessoas se acotovelam para usar a extensão, o que levou o grupo a buscar investidores. “Se o Facebook tentasse implementar isso como uma companhia, iria ajudar”, diz a estudante.

Em outra hackatona, organizada pela Debug Politics, um grupo de especialistas em tecnologia de San Francisco criado depois da recente eleição, o programador Jesse Germinario criou o Spectrum, que alerta os usuários quando estão em algum site não confiável – e, para combater o filtro-bolha, sugere artigos do outro lado do espectro político. Ele planeja lançar o produto em 8 de dezembro.

Há outros passos técnicos mais simples que podem ser dados. Alguns sites de notícias falsas tentam se fazer passar por veículos tradicionais de mídia usando modelos fornecidos pela Clonezone, que podem ser detectados e banidos. O Google já identifica o conteúdo como sendo “sátira” e pode usar a mesma tecnologia para rotular histórias como sendo “falsas”. A organização francesa de notícias “Le Monde” testa uma máquina de decodificação que permite aos leitores checar o que um político fala para ver se isso foi verificado como correto da vez anterior em que ele a falou.

O executivo-chefe da Betaworks, John Borthwick, que investe em redes de relacionamento social, e Jeff Jarvis, professor de jornalismos na Cuny, escreveram uma “convocação pela cooperação contra as notícias falsas”, na qual há sugestões para que desenvolvam tecnologias que rastreiem as fontes originais de notícias e “memes”. “Embora isso seja tecnicamente complicado, é bem menos complicado do que o reconhecimento facial que as plataformas sociais têm hoje em dia”, escreveram eles.

O Facebook também poderia usar os dados de seu rival Twitter, mais aberto, para verificar informações em sua rede, argumenta Adam Parker, chefe de dados da Lissted, uma empresa do Reino Unido que identifica pessoas com alto grau de influência nas redes de relacionamento social. A falsa notícia de que o papa Francisco apoiava Donald Trump foi compartilhada quase 1 milhão de vezes no Facebook e apenas seis vezes pelos 150 mil principais influenciadores no Twitter, mostrando que eles tendem a ser melhores na identificação de falsidades.

Comentários estão desabilitados para essa publicação