Meta é processada por “direcionar” crianças no Facebook e Instagram nos EUA

THE WASHINGTON POST – 41 estados e o Distrito de Columbia, EUA, estão processando a Meta alegando que a gigante da tecnologia prejudica as crianças ao criar recursos viciantes no Instagram e no Facebook. As ações legais desta terça-feira, 24, representam o esforço mais significativo das autoridades estaduais para controlar o impacto da rede social na saúde mental das crianças.

A enxurrada de ações judiciais é o ponto culminante de uma ampla investigação de 2021 sobre as alegações de que a Meta contribui para problemas de saúde mental entre os jovens.

“Nossa investigação bipartidária chegou a uma conclusão solene: a Meta tem prejudicado nossas crianças e adolescentes, cultivando o vício para aumentar os lucros das empresas”, disse em um comunicado o procurador-geral da Califórnia, EUA, Rob Bonta, uma das autoridades que lideram o processo.

33 estados dos EUA estão entrando com uma ação conjunta no tribunal federal do Distrito Norte da Califórnia, enquanto os procuradores-gerais do D.C. e oito estados estão entrando com queixas separadas em tribunais federais, estaduais ou locais.

Embora o escopo exato das reivindicações legais possa variar, espera-se que elas apresentem um quadro semelhante: a empresa fisgou crianças em suas plataformas usando táticas prejudiciais e manipuladoras.

A queixa federal de 233 páginas alega que a empresa se envolveu em um “esquema de exploração de usuários jovens para obter lucro”, enganando os usuários sobre seus recursos de segurança e a prevalência de conteúdo nocivo em seus produtos, coletando dados de usuários mais jovens e violando leis federais sobre privacidade infantil. As autoridades estaduais alegam que a empresa implementou conscientemente mudanças para manter as crianças no site em detrimento de seu bem-estar.

As reclamações ressaltam a preocupação dos líderes governamentais de que as principais redes sociais arriscam o bem-estar de seus usuários mais jovens ao projetar seus produtos de forma a otimizar o envolvimento em detrimento da segurança.

A porta-voz da Meta, Liza Crenshaw, disse em um comunicado que a empresa está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores gerais escolheram esse caminho”.

O efeito dos produtos da Meta sobre os jovens foi colocado sob os holofotes depois que uma reportagem do Wall Street Journal em 2021 detalhou uma pesquisa interna, vazada pela ex-funcionária do Facebook, Frances Haugen, mostrando que o Instagram piorou os problemas de autoimagem de algumas adolescentes. O caso ficou conhecido como Facebook Papers.

As revelações deram início a um acerto de contas político em Washington e nas capitais dos estados de todo o país, com legisladores lançando novos esforços para restringir o uso de mídias sociais por crianças e reguladores renovando o escrutínio das práticas de segurança da Meta.

No entanto, os esforços para aprovar novas proteções de privacidade e segurança para as crianças online foram enfraquecidos em nível federal, deixando que os estados avançassem com novas medidas agressivas.

Estados como Arkansas e Utah aprovaram leis que proíbem o acesso de crianças com menos de 13 anos às redes sociais e exigem que adolescentes com menos de 18 anos obtenham o consentimento dos pais para acessar os sites. A Califórnia, por sua vez, aprovou regras que exigem que as empresas de tecnologia verifiquem os riscos de seus produtos e incluam proteções de segurança e privacidade em suas ferramentas. Em vez da legislação federal, os pais e os distritos escolares também abordaram o assunto, entrando com ações judiciais acusando a Meta, TikTok e outras plataformas de agravar a crise de saúde mental dos jovens do país e de aumentar a ansiedade, depressão e os problemas de autoimagem entre os alunos.

Os crescentes processos judiciais chegam em um momento em que a pesquisa sobre a conexão entre o uso da rede social e os problemas de saúde mental continua obscura. No início deste ano, o cirurgião geral dos EUA, Vivek H. Murthy, divulgou um parecer argumentando que o uso excessivo de redes ídias sociais quando criança pode levar a um risco maior de saúde mental precária, incluindo problemas de sono ou insatisfação com o corpo. Mas um relatório da American Psychological Association concluiu que o uso de rede sociais “não é inerentemente benéfico ou prejudicial para os jovens” e que deveria haver mais pesquisas sobre o assunto.

Ao lançar sua investigação em 2021, as autoridades estaduais disseram que a empresa “não conseguiu proteger os jovens em suas plataformas” e a acusaram de “explorar crianças no interesse do lucro”.

A gigante da tecnologia rejeitou a investigação na época, com o porta-voz da Meta, Andy Stone, dizendo que as alegações eram “falsas e demonstram um profundo mal-entendido dos fatos”.

Desde então, a Meta revelou várias mudanças nas políticas e nos produtos com o objetivo de tornar seus aplicativos mais seguros para as crianças, inclusive fornecendo aos pais ferramentas para rastrear a atividade de seus filhos, criando avisos que incentivam os adolescentes a dar um tempo das redes sociais e implementando configurações de privacidade mais rígidas por padrão para usuários jovens.

Mas as mudanças fizeram pouco para acalmar seus críticos em nível estadual e federal, que alegam que a empresa se esquivou de sua responsabilidade de proteger seus jovens usuários mais vulneráveis.

Durante anos, a Meta tem se preocupado com o fato de os jovens passarem menos tempo no Facebook, enquanto os adolescentes migram para os concorrentes, incluindo o TikTok e o Snapchat. Para atrair usuários mais jovens, a empresa tentou replicar o TikTok com seu serviço de vídeos curtos, o Reels.

Mas o esforço para atrair os jovens chamou a atenção dos órgãos reguladores, que estão preocupados com o fato de aplicativos como o Facebook e o Instagram prejudicarem a saúde mental dos jovens, atraí-los para produtos viciantes em uma idade jovem e comprometer sua privacidade. A Meta argumenta que as pesquisas sobre os efeitos da rede social sobre os jovens são variadas e que a empresa toma precauções para proteger os usuários.

Depois que as revelações de Haugen se tornaram públicas, a Meta anunciou que estava pausando seus planos de criar um aplicativo do Instagram projetado especialmente para crianças menores de 13 anos. Grupos de defesa, procuradores gerais do estado e legisladores pediram que a empresa abandonasse o projeto por preocupação com a saúde mental dos jovens.

A empresa disse na época que ainda acreditava no conceito de um aplicativo do Instagram voltado para crianças porque elas estavam simplesmente mentindo sobre sua idade para entrar na rede social.

O governo Biden está examinando separadamente o histórico da Meta em relação à segurança das crianças, com a Comissão Federal de Comércio propondo um plano para impedir que a empresa monetize os dados que coleta de jovens usuários. Stone, da Meta, chamou isso de “manobra política” e disse que a empresa “lutaria vigorosamente” contra a medida.

Embora os esforços para controlar o impacto da rede social sobre as crianças estejam ganhando força entre os legisladores e os responsáveis pela aplicação da lei, eles estão cada vez mais enfrentando grandes obstáculos nos tribunais.

Juízes federais bloquearam recentemente as leis de segurança infantil recém-aprovadas na Califórnia e no Arkansas, dizendo que elas podem violar as proteções da Primeira Emenda e, às vezes, levantando dúvidas sobre sua eficácia e se elas realmente manteriam as crianças mais seguras.

Durante anos, as autoridades estaduais e federais têm examinado minuciosamente o manuseio das informações pessoais privadas das crianças pelas empresas de tecnologia, às vezes aplicando multas enormes contra as empresas de rede social. Em 2019, a FTC e o estado de Nova York chegaram a um acordo de US$ 170 milhões com o YouTube, de propriedade do Google, sobre acusações de que a empresa coletou ilegalmente dados de usuários com menos de 13 anos.

Mas, nos últimos anos, as autoridades têm se concentrado cada vez mais em como as empresas de tecnologia podem estar exacerbando a ansiedade, a depressão e outros problemas de saúde mental entre crianças e adolescentes.

Indiana, Arkansas e Utah entraram com ações judiciais separadas acusando o TikTok de prejudicar crianças por meio de recursos viciantes, expondo-as a conteúdo inadequado ou enganando os consumidores sobre suas proteções de segurança. O Arkansas entrou com uma ação judicial semelhante acusando a Meta de violar as regras do estado contra práticas comerciais enganosas

https://www.estadao.com.br/link/empresas/meta-e-processada-por-viciar-criancas-no-facebook-e-instagram-nos-eua/

Comentários estão desabilitados para essa publicação