O que os documentos internos do Facebook mostraram

O Facebook luta contra sua crise mais grave desde o escândalo da Cambridge Analytica, após uma ex-funcionária ter acusado a empresa de colocar o “lucro acima da segurança” e trazido à tona, por meio de milhares de páginas de mensagens vazadas, os funcionamentos internos da rede social. 

Os documentos foram revelados às autoridades reguladoras dos Estados Unidos e entregues, de forma editada, ao Congresso americano pela assessoria jurídica da ex- gerente Frances Haugen. Um consórcio de organizações da imprensa, incluindo o “Financial Times”, obteve as versões recebidas pelo Congresso. A seguir, quatro revelações dos documentos: 

O Facebook tem um enorme problema de idioma 

O Facebook é acusado com frequência de deixar de moderar o discurso de incitação ao ódio em seus sites em língua inglesa, mas o problema é muito pior em países com outros idiomas. Um documento de 2021 alertou sobre o baixo número de moderadores em dialetos falados na Arábia Saudita, Iêmen e Líbia. Outro estudo, sobre o Afeganistão, mostrou que até páginas explicando como denunciar discursos de ódio estavam traduzidas de forma errada. A empresa destinou, em 2020, 87% do orçamento para algoritmos de detecção de desinformação aos EUA e 13% ao resto do mundo. Haugen disse que o Facebook deveria ser transparente sobre os recursos que dispõe, por país e idioma. 

O Facebook com frequência não compreende como seus algoritmos funcionam 

Documentos mostram como o Facebook fica desconcertado com seus próprios algoritmos. Um memorando de setembro de 2019 mostrou que os homens recebiam um volume de postagens políticas 64% maior que as mulheres em quase todos os países, e que o problema era maior em países africanos e asiáticos. Embora os homens tivessem maior probabilidade de acompanhar contas de conteúdo político, o memorando dizia que os algoritmos de alimentação de conteúdo do Facebook também tiveram papel significativo. Um memorando de junho de 2020 apontou que é “virtualmente garantido” que “importantes sistemas [do Facebook] mostrem inclinações baseadas na raça do usuário”. 

Como sua inteligência artificial deixou a desejar, o Facebook tornou mais difícil denunciar discursos de ódio
O Facebook há muito sustenta que seus programas de inteligência artificial podem detectar e derrubar abusos e discursos de ódio, mas os documentos mostram até que ponto isso é limitado. Segundo nota de março de 202, a empresa age apenas em 3% a 5% dos discursos de ódio e 0,6% do conteúdo violento. Outro memorando sugere que a empresa pode nunca ter capacidade para ir além dos 10% ou 20%, porque é “extraordinariamente desafiador” para a inteligência artificial entender o contexto em que a linguagem é usada. 

O Facebook, entretanto, já havia decidido recorrer mais à inteligência artificial, para reduzir gastos com a moderação humana em 2019. A empresa tornou mais difícil denunciar e recorrer contra decisões sobre discursos de ódio. 

“Ao combater o discurso de ódio no Facebook, nosso objetivo é reduzir sua prevalência, que é a quantidade disso que as pessoas realmente veem”, informou o Facebook. A empresa também acrescentou que o discurso de ódio representa apenas 0,05% do que os usuários veem, uma proporção que havia reduzido em 50% ao longo dos três trimestres anteriores.

O Facebook tocava violino enquanto o Capitólio ardia 

Os documentos revelam a dificuldade do Facebook para conter o crescimento dos discursos de ódio e da desinformação em sua plataforma a respeito dos distúrbios de 6 de janeiro em Washington. Memorandos mostram que a empresa desligou certas salvaguardas emergenciais na esteira da eleição de novembro de 2020 e teve dificuldade para religá-las quando a violência cresceu. Em outubro de 2020, o Facebook anunciou que deixaria de recomendar “grupos cívicos”, que discutem questões sociais e políticas. No entanto, por dificuldades técnicas, 3 milhões de usuários nos EUA ainda receberam diariamente, entre outubro de 2020 e de janeiro de 2021, recomendações de ao menos 1 dos 700 mil grupos cívicos identificados. 

Resposta do Facebook 

O Facebook se recusou a comentar detalhes das acusações, mas afirmou que não coloca o lucro à frente da segurança ou do bem-estar das pessoas e que “a verdade é que investimos US$ 13 bilhões e temos mais de 40 mil pessoas para fazer uma tarefa: manter as pessoas seguras no Facebook” Por Hannah Murphy, Martha Muir, Dave Lee e Madhumita Murgia   Financial Times

https://valor.globo.com/empresas/noticia/2021/10/27/o-que-os-documentos-internos-do-facebook-trouxeram-a-tona.ghtml

Comentários estão desabilitados para essa publicação