A Meta, liderada por Mark Zuckerberg, deve se defender em um julgamento inovador no Novo México, acusada de não proteger as crianças da exploração sexual e de projetar deliberadamente recursos viciantes em suas plataformas. Isto marca o primeiro julgamento em nível estadual contra uma grande empresa de mídia social por danos a menores, estabelecendo um precedente crucial para a responsabilização das Big Techs.
As principais alegações: exploração e vício
O procurador-geral do Novo México, Raul Torrez, entrou com a ação em 2023, alegando que Meta criou conscientemente um “terreno fértil” para predadores no Facebook, Instagram e WhatsApp. Os promotores construíram seu caso usando contas secretas que se faziam passar por crianças para documentar solicitações explícitas e a resposta de Meta – ou a falta dela. A afirmação é contundente: a Meta priorizou o lucro em detrimento da segurança, facilitando tanto a exploração sexual como o uso compulsivo de plataformas entre os jovens.
O processo vai além, argumentando que a Meta escondeu os efeitos nocivos de seus algoritmos e recursos ao mesmo tempo em que violava as leis de proteção ao consumidor ao criar um incômodo público. Os jurados receberão o que o estado descreve como “material muito sensível e muito explícito”, ilustrando os perigos enfrentados pelas crianças online.
Defesa da Meta e batalhas jurídicas mais amplas
Meta nega as acusações, alegando que o estado está distorcendo seletivamente as evidências e conduzindo uma investigação “eticamente comprometida”. A empresa afirma que implementou salvaguardas, incluindo configurações e restrições de conteúdo mais rigorosas, e aponta para uma década de pesquisa e colaboração com especialistas.
No entanto, o julgamento no Novo México é apenas uma frente numa ofensiva legal mais ampla contra Meta. Mais de 40 procuradores-gerais estaduais entraram com ações semelhantes, acusando a empresa de projetar intencionalmente recursos viciantes para maximizar as receitas de publicidade. Um caso paralelo no Tribunal Superior do Condado de Los Angeles, envolvendo o YouTube do Google, alega que o vício em redes sociais levou um demandante de 19 anos à depressão e a pensamentos suicidas; A TikTok fez um acordo com o demandante pouco antes do julgamento, embora os detalhes do acordo permaneçam não divulgados.
O argumento do vício: manipulação comportamental
O processo de Los Angeles acusa a Meta, juntamente com o TikTok e o YouTube, de tomar emprestadas técnicas das indústrias de jogos de azar e tabaco para maximizar deliberadamente o envolvimento dos jovens. Os demandantes argumentam que essas empresas incorporaram recursos de design destinados a prender os jovens usuários em ciclos de feedback autodestrutivos, gerando receitas publicitárias às custas da saúde mental.
Meta afirma que a saúde mental dos adolescentes é uma questão complexa influenciada por múltiplos factores – pressão académica, desafios socioeconómicos, abuso de substâncias – e que culpar apenas as redes sociais é uma simplificação excessiva. A empresa insiste que continua empenhada em apoiar os jovens, mas enfrenta evidências crescentes que sugerem uma abordagem mais calculada ao envolvimento dos utilizadores.
Por que isso é importante: estabelecendo um precedente
O ensaio do Novo México é significativo porque é o primeiro a chegar a esta fase. Uma vitória a nível estatal para os procuradores poderia abrir a porta a novos litígios, forçando a Meta e outros gigantes da tecnologia a repensar fundamentalmente a forma como concebem as suas plataformas. O caso levanta questões críticas sobre as responsabilidades das empresas de redes sociais na proteção de utilizadores vulneráveis, a ética do design viciante e o equilíbrio entre lucro e segurança na era digital.
O resultado deste ensaio provavelmente influenciará a forma como os legisladores e reguladores abordam o impacto da Big Tech nas crianças nos próximos anos.
Os procedimentos serão acompanhados de perto por analistas do setor, especialistas jurídicos e pais, já que o futuro da responsabilização nas redes sociais está em jogo.




























