Em janeiro, a Meta anunciou uma transformação radical em sua abordagem para curadoria de conteúdo e checagem de fatos em suas plataformas, logo após a posse de Donald Trump no governo dos EUA, para assumir seu segundo mandato. Desde 2016, após o escândalo da Cambridge Analytica, a empresa vinha utilizando um modelo robusto que combinava automação, colaboração com empresas especializadas e milhares de curadores profissionais, com o intuito de filtrar melhor os conteúdos publicados e reduzir a quantidade de fake news e spam. Desde então, a Meta vem atuando na transição para um modelo inspirado no X (antigo Twitter), focado em autorregulação conduzida pelos próprios usuários.
Em um primeiro momento, isso pareceu para alguns, um caminho para maior liberdade de expressão e para evitar exageros “politicamente corretos”. Entretanto, os primeiros meses de operação nesse novo contexto acabaram gerando ainda mais propagação de desinformação, fake news e conteúdos pejorativos.
A perplexidade inicial diante da mudança
Sob a perspectiva comercial, a decisão da Meta surpreendeu, principalmente porque os resultados financeiros do X após alterações similares foram amplamente decepcionantes. Ao permitir que os usuários sejam protagonistas na regulação do conteúdo, a Meta assumiu ainda maiores desafios relacionados à toxicidade, desinformação e polarização — problemas que já assombram outras plataformas.
Curadoria de conteúdo é um tema controverso há anos. Como Marshall McLuhan postulou, “o meio é a mensagem”, e as redes sociais, ao criarem bolhas informacionais, moldam percepções e comportamentos em escala global. A sociedade se encontra em uma encruzilhada crescente, dependente do governante da ocasião: como equilibrar a liberdade de expressão com a responsabilidade de combater a desinformação e proteger a saúde mental coletiva?
As redes sociais não são apenas vitrines de conteúdo; são arenas de debate, espaços de conexão emocional e ferramentas de construção de identidade. A curadoria, nesse contexto, desempenha um papel central em:
- Filtrar e organizar informações: garantir que os usuários recebam conteúdos relevantes e precisos.
- Manter o ambiente seguro: promover interações saudáveis e mitigar o impacto de discursos de ódio, desinformação e bullying.
- Facilitar a descoberta de conteúdos: ampliar a visibilidade de criadores menores e diversificar as narrativas compartilhadas.
Liberdade ou caos?
Mark Zuckerberg enfatizou a “liberdade de expressão” como o cerne da nova política. Ele argumentou que a descentralização na moderação poderia evitar censuras arbitrárias e promover um ambiente “mais autêntico”. Contudo, a liberdade irrestrita, muitas vezes, traz consequências inesperadas. O X tornou-se um campo minado de polarização e fake news, afastando usuários e anunciantes e destruindo rapidamente seu valor de mercado. Caso a Meta não tenha sucesso na implementação de salvaguardas adequadas, corre o risco de repetir esses erros.
A pandemia da covid-19 foi um exemplo claro de como a moderação de conteúdo foi crucial para desmentir informações perigosas. Por outro lado, a crítica sobre a “cultura do cancelamento” e moderações automáticas excessivas expuseram a necessidade de um sistema mais equilibrado e transparente para todos.
Impactos para os usuários
Para os usuários, as consequências dessa mudança dependem de como a Meta decide aplicar sua nova política na prática – ainda temos visto muitos ajustes no dia a dia e especificidades):
- Toxicidade e desinformação: a descentralização da curadoria pode abrir espaço para o aumento de discursos de ódio, fake news e teorias da conspiração.
- Saúde mental: as redes sociais exercem uma pressão significativa sobre o bem-estar psicológico dos indivíduos. Um ambiente menos moderado tende a intensificar esses efeitos.
- Adaptação dos usuários: muitos podem abandonar as plataformas caso a experiência se torne insustentável. Alternativas como TikTok ou redes descentralizadas podem seguir ganhando espaço.
- Evolução das práticas: concorrentes como Google e TikTok podem ajustar suas próprias abordagens, gerando um efeito cascata no mercado, a despeito da forte pressão do governo americano estimulando a abordagem adotada pela Meta e pelo X.
Repercussões comerciais e institucionais
Zuckerberg também pareceu mirar uma agenda institucional, buscando alinhar-se ao governo dos EUA e a pautas que possam favorecer a Meta diante de regulações crescentes. Isso inclui não apenas a “liberdade”, mas também a criação de um ambiente mais favorável para disputas comerciais e políticas, especialmente com Elon Musk e o X.
Além disso, embora prometam maior “liberdade” de expressão, as novas práticas abrem espaço para conteúdos mais controversos e polarizadores, o que pode impactar fortemente:
- Papel das marcas em temas ligados à agenda ESG: empresas alinhadas a causas de sustentabilidade, inclusão e responsabilidade social estão enfrentando desafios ao associar suas marcas a plataformas vistas como hostis ou permissivas em relação a fake news e radicalismo.
- Anunciantes na Europa: a conformidade com a General Data Protection Regulation (GDPR) é essencial para marcas que atuam no continente, e uma moderação negligente pode gerar riscos legais e reputacionais que levariam a novas tensões regulatórias — ao contrário do que se deseja evitar.
- Investidores: A percepção do público influencia diretamente o desempenho financeiro das plataformas, refletindo-se em suas receitas publicitárias.
Por hora, as plataformas da Meta seguem desempenhando um papel fundamental na estratégia de marketing digital de diversas empresas. No entanto, a evolução das políticas de moderação pode gerar:
- Busca por alternativas: se o ambiente se tornar excessivamente polarizado ou hostil, as marcas podem migrar para canais mais neutros e confiáveis.
- Desafios para mensagens ESG: iniciativas de inclusão e sustentabilidade correm o risco de serem distorcidas ou atacadas em contextos menos controlados. Estamos vendo fortemente esse impacto no caso da comunidade transexual, por exemplo, nos EUA.
- Perda de engajamento: caso a audiência se desinteresse pelo conteúdo, a eficácia da presença digital das marcas é comprometida.
As ações de Musk e da Meta afetam diretamente o conceito de brand safety, que é um dos pilares do marketing digital moderno, pelos seguintes fatores:
- A relevância do controle: sem moderação eficaz, os anunciantes enfrentam maiores riscos de associação com conteúdo inadequado ou ofensivo.
- Impacto na comunidade: plataformas que não promovem ambientes saudáveis perdem o engajamento de seus usuários, reduzindo o retorno sobre investimento publicitário.
A mudança na política de curadoria da Meta é um marco que nos força todos os dias a refletir sobre o papel das redes sociais no mundo contemporâneo. Enquanto aguardamos mais detalhes sobre os desdobramentos de sua implementação, não havendo decorrido nem 100 dias após as mudanças, uma coisa é certa: o debate em torno da liberdade de expressão, responsabilidade corporativa e saúde mental continuará a moldar o futuro do ecossistema digital. Cabe a cada um de nós avaliar como essas plataformas se alinham aos nossos valores e como desejamos utilizá-las.
Portanto, à medida que as políticas de moderação evoluem, as marcas devem monitorar os impactos sobre suas audiências e se adaptar rapidamente. No fim das contas, o que define o sucesso de uma plataforma é sua habilidade de atender às necessidades de seus usuários, oferecendo um espaço seguro, relevante e confiável para a troca de informações e ideias, além de viabilizador da realização de negócios sólidos e sustentáveis.
Fernando Moulin é partner da Sponsorb.
*Este texto reproduz a opinião do autor e não reflete necessariamente o posicionamento da Mercado&Consumo.
Imagem: Shutterstock