Internet

Zuckerberg ajusta o foco: moderação seletiva e flexibilização nas redes sociais

Mark Zuckerberg anunciou mudanças globais nas redes sociais da Meta. Entre as medidas, algoritmos voltam a recomendar conteúdos políticos, regras de discurso de ódio foram flexibilizadas e moderação agora foca em violações graves. No Brasil, algumas dessas alterações já estão ativas.
Publicado por Alan Correa em Internet dia 12/01/2025

A Meta divulgou um conjunto de mudanças em suas plataformas, incluindo ajustes nos algoritmos, flexibilização de regras de discurso de ódio e alterações na moderação de conteúdo. Algumas dessas mudanças já estão em vigor no Brasil, enquanto outras permanecem restritas aos Estados Unidos. O anúncio foi feito por Mark Zuckerberg e reflete novas diretrizes globais para as redes sociais da empresa.

Pontos Principais:

  • Algoritmos voltam a recomendar conteúdo político em nível global.
  • Regras de discurso de ódio foram flexibilizadas para contextos específicos.
  • Moderação de conteúdo foca apenas em violações graves.
  • Fim do fact-checking independente, válido apenas nos EUA.

Entre as medidas apresentadas, destacam-se a retomada da recomendação de conteúdos políticos, alterações nas políticas de discurso de ódio e um novo modelo de moderação. Nos Estados Unidos, também foi anunciado o fim do programa de checagem independente de fatos e a introdução de um sistema de “Notas da Comunidade”, semelhante ao usado pelo X (antigo Twitter).

Recomendações de conteúdo político em algoritmos

A Meta decidiu reverter sua política anterior de limitar o alcance de conteúdos classificados como cívicos, como debates políticos e eleitorais. Agora, os algoritmos da empresa voltarão a recomendar esses conteúdos, mesmo que sejam de contas que os usuários não seguem. A medida será aplicada globalmente e de forma gradual.

Os usuários poderão ajustar as configurações para reduzir a exibição desse tipo de conteúdo em seus feeds, mas a Meta justifica que a política tem como objetivo garantir que debates políticos tenham o mesmo espaço que outros temas. No Brasil, a presença de publicações políticas deve se tornar mais evidente nas próximas semanas, conforme os ajustes forem implementados.

Especialistas alertam para o potencial aumento de polarização e radicalização com a mudança, já que as recomendações podem amplificar conteúdos polêmicos. No entanto, a Meta afirma que as recomendações serão personalizadas para cada usuário.

Fim do fact-checking nos EUA

Nos Estados Unidos, a Meta encerrou seu programa de checagem independente de fatos, que financiava cerca de 80 organizações ao redor do mundo desde 2016. Essa medida ainda não tem previsão de ser expandida para outros países, incluindo o Brasil.

Segundo a empresa, a decisão foi motivada por críticas de que o programa gerava censura e favorecia vieses. Em resposta, grupos de checagem internacionais reforçaram que seus processos seguem protocolos técnicos rigorosos e independentes. No lugar do fact-checking, a Meta introduzirá as “Notas da Comunidade”, um sistema que permite que usuários adicionem informações contextuais às publicações. A nova funcionalidade começará nos Estados Unidos, sem previsão de expansão global.

A ausência de uma verificação independente levanta preocupações sobre a propagação de desinformação nas plataformas. Críticos argumentam que o novo modelo de notas limita a capacidade de combater informações falsas de maneira eficiente.

Regras para discurso de ódio

A Meta atualizou globalmente suas políticas sobre discurso de ódio. As novas diretrizes, publicadas no documento “Padrões da Comunidade”, flexibilizam as restrições em contextos específicos, como debates religiosos e políticos. Agora, declarações relacionadas a gênero e orientação sexual podem ser permitidas, dependendo do contexto.

A empresa informou que continuará removendo conteúdos considerados graves, como discursos que incentivem violência ou discriminação explícita. No entanto, publicações que apresentem violações menores só serão removidas se denunciadas. A Meta justifica que a flexibilização busca reduzir erros em decisões automatizadas.

As mudanças já estão em vigor no Brasil e impactam todas as plataformas da empresa, incluindo Facebook, Instagram e Threads. Especialistas destacam que a flexibilidade nas regras pode facilitar a disseminação de discursos potencialmente ofensivos.

Moderação de conteúdo prioriza violações graves

A Meta ajustou seus filtros de moderação para focar em violações graves, como casos de terrorismo e exploração infantil. Conteúdos que apresentem infrações menos severas não serão automaticamente removidos, a menos que sejam alvo de denúncias específicas.

A empresa argumenta que os filtros automáticos anteriores resultavam em muitos erros, afetando usuários de forma injusta. A nova abordagem busca reduzir essas falhas e priorizar a precisão nas decisões de moderação. Essa política já está em vigor globalmente, incluindo no Brasil.

A flexibilização da moderação é vista como uma tentativa de equilibrar liberdade de expressão e segurança nas plataformas, mas levanta questionamentos sobre o impacto dessa medida na prevenção de desinformação e discurso de ódio.

Fonte: OGlobo e Folha.