Um juiz do Tribunal Distrital dos EUA para o Distrito Norte do Texas rejeitou o processo da X Corp. contra anunciantes que, segundo a empresa, participaram de um “boicote ilegal” ao X, conforme noticiado pela Reuters. A X havia originalmente entrado com a ação em 2024, em resposta à retirada de anúncios da plataforma por parte de diversos anunciantes. Essa decisão foi motivada pela abordagem considerada frouxa do X em relação à moderação de discurso de ódio e conteúdos problemáticos.

A juíza Jane J. Boyle não se convenceu pelas alegações da X de que a retirada de publicidade por empresas como Twitch, Shell, Nestlé e Lego configurava um “dano antitruste”. As empresas citadas no processo da X são membros da Global Alliance for Responsible Media (GARM) da World Federation of Advertisers, uma organização utilizada por anunciantes para negociar certos padrões de segurança com as plataformas onde anunciam.

Em essência, os anunciantes demonstraram insatisfação com a política de moderação do X e responderam direcionando seus investimentos para outras plataformas de mídia social. Essa mudança impactou negativamente a receita publicitária do X. No entanto, conforme Boyle escreveu na decisão de arquivamento, a empresa não conseguiu comprovar que as ações dos anunciantes violaram as leis antitruste.

A decisão judicial representa um revés significativo para a X Corp., que buscava responsabilizar os anunciantes pela queda em suas receitas. O caso levantou importantes questões sobre a responsabilidade das plataformas de mídia social na moderação de conteúdo e o poder dos anunciantes em influenciar essas políticas. A GARM, como representante dos anunciantes, desempenhou um papel crucial ao articular as preocupações do setor e buscar padrões mais elevados de segurança nas plataformas.

O impacto dessa decisão judicial pode se estender para outras plataformas de mídia social. Ela sinaliza que os anunciantes têm o direito de tomar decisões sobre onde alocar seus orçamentos de publicidade com base em suas preocupações com a segurança da marca e a responsabilidade social. As plataformas que não atenderem a esses padrões podem enfrentar consequências financeiras.

Em resumo, a rejeição do processo da X contra os anunciantes reforça a importância da moderação de conteúdo e da responsabilidade social nas plataformas de mídia social. Os anunciantes estão cada vez mais conscientes do impacto de suas decisões de publicidade e exigem que as plataformas atendam a certos padrões de segurança e ética. Este caso serve como um alerta para outras empresas de mídia social sobre a necessidade de priorizar a segurança e a responsabilidade em suas operações.