Google e Facebook falham em tirar conteúdo do ar

Na quarta-feira passada, uma semana após o tiroteio na escola em Parkland, Flórida, o Facebook e o YouTube prometeram duras medidas contra os trolls – usuários de internet que buscam provocar discussões e gerar raiva em outras pessoas. Ou seja, as empresas prometeram retirar postagens falsas sobre sobreviventes de Parkland, mas não conseguiram
Milhares de postagens e vídeos surgiram nos sites, com afirmações falsas de que os sobreviventes do tiroteio eram atores pagos, além de teorias da conspiração. O Facebook chamou as postagens de “abomináveis”. O YouTube, que pertence ao Google, disse que precisava melhorar o controle. Ambos prometeram remover o conteúdo, como mostrou matéria do The New York Times, publicada no Estado de 26/02.
Desde então, as empresas retiraram de forma agressiva muitas postagens e vídeos e reduziram a visibilidade de outros. Mas, na sexta-feira, o conteúdo nocivo ainda estava longe de ser erradicado.
No Facebook e no Instagram, buscas com a hashtag #crisisactor, que acusou os sobreviventes de Parkland de serem atores, apresentaram centenas de posts perpetuando a falsa informação. Muitas das postagens foram modificadas ligeiramente para evitar a detecção automática.
A persistência da desinformação, apesar dos esforços dos gigantes tecnológicos para eliminá-la, tornou-se um ‘case’ de como as empresas estão constantemente um passo atrás na erradicação desse tipo de conteúdo. Sob todos os pontos de vista, trolls, teóricos da conspiração e outros, provaram ser mais habilidosos do que as empresas.
“Eles não conseguem policiar suas plataformas quando o tipo de conteúdo que estão prometendo proibir muda de forma rapidamente”, disse Jonathon Morgan, fundador da New Knowledge, uma empresa que rastreia a desinformação online.
Promessas. A dificuldade de lidar com conteúdo inadequado online destacou-se com o tiroteio do Parkland, porque as empresas de tecnologia comprometeram-se efetivamente a remover qualquer acusação de que os sobreviventes fossem atores, mas não conseguiram. No passado, as empresas normalmente tratavam de tipos específicos de conteúdo apenas quando era ilegal – postagens de organizações terroristas, por exemplo – disse Morgan.
As promessas do Facebook e do YouTube vieram após um fluxo de críticas nos últimos meses sobre como seus sites podem ser usados para espalhar propaganda russa e outros abusos. As empresas disseram que estão apostando em sistemas de inteligência artificial para ajudar a identificar e retirar conteúdo inapropriado, embora essa tecnologia ainda esteja sendo desenvolvida.
O Facebook disse estar contratando 1 mil novos moderadores para revisar o conteúdo e implantando mudanças sobre qual tipo de notícia seria favorecida na rede social. O YouTube disse que pretende ter 10 mil moderadores até o final do ano e que está alterando seus algoritmos de busca para divulgar mais vídeos de fontes de notícias confiáveis.
“Informações falsas são como qualquer outro desafio que envolvam seres humanos: evoluem, como boato ou lenda urbana. Elas também se disfarçam de discursos legítimos”, disse Mary deBree, diretora da política de conteúdo do Facebook. “Nosso trabalho é fazer o melhor para manter esse conteúdo ruim fora do Facebook sem prejudicar a razão pela qual as pessoas vêm aqui – ver o que acontece no mundo ao seu redor e falar sobre elas.”
Uma porta-voz do YouTube disse, em nota, que o site atualizou sua política para que vídeos falsos que visam as vítimas de tais tragédias também sejam removidos.
Dificuldades. Não é difícil escapar da caça promovida pelo Facebook e pelo YouTube contra postagens falsas. Os autores alteram imagens ou usam expressões diferentes
Outra estratégia é publicar posts novos rapidamente ou se envolver com postagens similares de outras contas, criando uma espécie de efeito viral que pode fazer com que os algoritmos dos sites promovam o conteúdo como um tópico influente ou um vídeo recomendado, disse David Carroll, um professor da New School que estuda plataformas tecnológicas.
Essa duplicação e “reembalagem” de informações errôneas “fazem com que retirá-las sempre seja mais lento do que colocá-las de volta”.
Isso ficou claro nos últimos dias, depois da publicação de um vídeo sugerindo que um dos sobreviventes de Parkland, David Hogg, era ator. Hogg foi o estudante que mais se manifestou recentemente sobre o problema das armas nos EUA

http://economia.estadao.com.br/noticias/negocios,google-e-facebook-falham-em-tirar-conteudo-do-ar,70002204145

Comentários estão desabilitados para essa publicação