A Meta anunciou, no último domingo (7), mudanças significativas em suas plataformas Facebook, Instagram e Threads. O sistema de verificação de fatos realizado por terceiros será descontinuado nos Estados Unidos, dando lugar ao recurso “notas da comunidade”, uma abordagem colaborativa similar à adotada pelo X (antigo Twitter). A medida representa uma guinada na política de moderação de conteúdo da empresa e pode ter impacto global.
Foco na liberdade de expressão
Segundo Mark Zuckerberg, CEO da Meta, a mudança visa reduzir erros e priorizar a liberdade de expressão. “Estamos simplificando nossas políticas e substituindo verificadores de fatos pelo recurso notas da comunidade, voltando às nossas raízes de liberdade de expressão”, afirmou o executivo.
A ferramenta permitirá que os próprios usuários sinalizem postagens e adicionem informações complementares, enquanto uma equipe dedicada continuará lidando com questões graves, como terrorismo e exploração infantil. A Meta também declarou que ajustará suas políticas em parceria com o governo do presidente eleito dos EUA, Donald Trump.
Como funcionará o novo sistema
O recurso “notas da comunidade” baseia-se na inteligência coletiva para moderar conteúdos considerados de menor gravidade. Usuários poderão adicionar contextos ou alertas a postagens, substituindo o modelo de checagem realizado por organizações especializadas.
Embora defensores da mudança destaquem o potencial de transparência e maior engajamento dos usuários, críticos apontam riscos de manipulação e desinformação coordenada, comprometendo a confiabilidade do sistema.
Impacto no combate às fake news
Desde 2016, o sistema de verificação de fatos da Meta colaborava com dezenas de organizações globais para combater notícias falsas, sobretudo em temas sensíveis como saúde e política.
Com a mudança, o foco será direcionado a problemas considerados mais críticos, enquanto conteúdos de menor impacto ficarão sob responsabilidade da comunidade.
A medida preocupa especialistas, especialmente em países como o Brasil, onde fake news têm influência direta em eleições. O Ministério Público Federal (MPF) já solicitou explicações à Meta sobre possíveis impactos locais, mas a empresa ainda não se posicionou.
Plataformas em transformação
As mudanças também incluem o retorno de recomendações de conteúdos políticos no Facebook, Instagram e Threads, algo que pode alterar significativamente o comportamento e engajamento dos usuários.
No entanto, o WhatsApp, outra plataforma da Meta, ficou de fora do anúncio, mesmo após informações de cortes de 30% nos investimentos contra desinformação no Brasil.
Reflexos globais e ceticismo
Embora a mudança esteja inicialmente limitada aos Estados Unidos, há indícios de que possa se expandir para outros mercados. Mark Zuckerberg mencionou pressões de governos na Europa e América Latina como fatores que influenciaram a decisão, sinalizando ajustes às demandas regulatórias globais.
Especialistas divergem quanto ao impacto da medida. Enquanto alguns veem o movimento como uma oportunidade de democratizar a moderação, outros alertam para o aumento da desinformação e de conteúdos nocivos.
Inovação ou retrocesso?
Para o setor de tecnologia, a mudança na moderação da Meta pode indicar novas tendências de mercado. Startups e empreendedores terão a oportunidade de explorar soluções baseadas em inteligência artificial e colaboração comunitária para lidar com o desafio da desinformação. Contudo, a redução na regulação pode criar um ambiente mais instável e suscetível a abusos.
As alterações promovidas pela Meta marcam uma mudança profunda na forma de lidar com conteúdos em suas plataformas. Apesar de prometerem maior participação comunitária e liberdade de expressão, as medidas levantam preocupações sobre a propagação de notícias falsas em um cenário digital cada vez mais complexo.
Empreendedores e inovadores precisarão acompanhar de perto as novas dinâmicas e buscar soluções para equilibrar transparência, liberdade e segurança em um ambiente de transformação constante.
