Após anúncio da Meta, o que muda no Instagram e Facebook?

"DonaCom o encerramento da checagem independente, empresa vai adotar recurso de “notas da comunidade”. Entenda como funciona modelo já utilizado no X.A comunidade de usuários de redes sociais foi pega de surpresa com o anúncio da Meta de que vai relaxar medidas tomadas contra a circulação de conteúdos suspeitos no Instagram, Facebook e Threads. Em vídeo, Mark Zuckerberg disse ter decidido encerrar o programa independente de verificação de fatos porque os moderadores de conteúdo são “tendenciosos demais”.

Em substituição a esse modelo, o presidente da gigante tecnológica vai adotar o modelo de notas da comunidade. A função de marcar postagens com comentários de usuários selecionados é utilizada desde 2021 pelo X, que chegou a ser suspenso no Brasil pelo ministro do Supremo Tribunal Federal, Alexandre de Moraes, em 2024.

Zuckerberg até citou a rede social de Elon Musk em seu pronunciamento, sugerindo a existência de “tribunais secretos” na América Latina que obrigariam as empresas a removerem conteúdos.

“Vamos trabalhar com o presidente [Donald] Trump para resistir a governos ao redor do mundo que estão perseguindo empresas americanas e pressionando por mais censura”, disse o proprietário do Instagram e do Facebook. Sua empresa Meta também controla o WhatsApp, mas o aplicativo não tem moderação de conteúdo por usar criptografia nas trocas de mensagens.

Até agora, pouco se sabe sobre como a Meta vai lidar com fake news daqui para frente. De acordo com a empresa, as notas da comunidade devem ser implementadas nos próximos meses nos Estados Unidos. Para o Brasil, ainda não há data para o recurso entrar em vigor, declarou a empresa americana à Advocacia-Geral da União (AGU), que pediu esclarecimentos sobre as novas políticas da gigante tecnológica no país.

Atualmente a Meta identifica temas como drogas, exploração infantil, terrorismo e fraudes como de “maior gravidade”. O fim da moderação independente valerá para as postagens consideradas de “menor gravidade” – ou seja, as denunciadas pelos usuários. No entanto, essa classificação deverá sofrer mudanças.

Um dia após o anúncio de Zuckerberg, a Meta atualizou as diretrizes sobre o que considera discurso de ódio, possibilitando a circulação de opiniões que, por exemplo, associem orientação sexual e gênero a doenças mentais. À AGU, a empresa se disse “comprometida em respeitar os direitos humanos” e a “liberdade de expressão”.

O que vai mudar na prática?

O modelo de checagem de informações independente começou a ser utilizado pela Meta em 2016, na esteira da primeira eleição do republicano Donald Trump para a presidência dos EUA. Os moderadores, parte de uma rede de 80 veículos e agências de jornalismo associados à Aliança Internacional de Checagem de Fatos, do Instituto Poynter, auxiliavam as plataformas da Meta a identificarem conteúdos suspeitos.

A seleção das postagens potencialmente falaciosas podia ser feita pelos checadores independentes ou pela própria Meta, que lhes enviava material viral suspeito de desinformação.

Os moderadores verificavam os dados ou imagens apurando as fontes primárias para garantir que os dados utilizados eram factualmente corretos. Identificada uma violação, os checadores informavam a Meta. Esta podia então reduzir o alcance, exibir um rótulo informativo ou suspender a postagem. Esse tipo de contato entre organizações independentes e a administração das plataformas não vai mais existir para as postagens de “menor gravidade”.

Se o modelo utilizado seguir o exemplo do X, o conteúdo suspeito vai receber, abaixo da publicação, um acréscimo em forma de texto escrito por usuários. Na plataforma de Elon Musk, essas informações indicam “sensacionalismo”, “falta de comprovação” e inserem contexto ou correções ao material. A postagem, porém, pode ser clicada da mesma forma que as demais, sem ter nenhum “carimbo”. Além disso, por ficar no fim do texto, as notas são as últimas informações a serem lidas pelo usuário.

No X, o recurso funciona assim: alguns usuários mais atuantes se oferecem e são selecionados para integrar o grupo que pode acrescentar as observações. Depois disso, elas são avaliadas por outros usuários do grupo autorizado. Se bem aceitas, as notas podem ser incluídas.

Mas isso não garante que o rodapé informativo vai aparecer no post. O modelo do X prega a imparcialidade total dos comentários, e para isso é necessário que eles sejam reconhecidos como positivos por contas de visões políticas opostas, cujas orientações ideológicas são analisadas por um algoritmo que varre as postagens dos colaboradores. De acordo com o nível de concordância entre esses usuários – o que, em posts políticos, é ainda mais complicado –, a plataforma decide se a nota tem muita, pouca ou nenhuma visibilidade para o resto dos internautas.

Novo modelo da Meta vai funcionar?

A grande questão é como será implementada essa função nas redes sociais da Meta – Instagram, Facebook e Threads. No exemplo do X, são poucas as informações disponíveis sobre quem efetivamente trabalha para incluir as notas da comunidade.

“Há coisas que não estão claras: quantas pessoas deverão opinar sobre uma postagem para que vire uma nota, por exemplo. Existem pormenores que não estão claros”, lembra Iná Jost, coordenadora de pesquisa do InternetLab, organização voltada para o estudo dos direitos humanos na internet.

Segundo ela, mesmo ainda envolta em dúvidas, a mudança representa um retrocesso. “Me parece voltar algumas casas numa política dos últimos anos de melhora dos sistemas de moderação de conteúdo. Não era perfeito, mas foi se ajustando de acordo com certas demandas. Um bom exemplo era a política de desinformação sobre saúde, que veio depois da pandemia: teve demanda e comprometimento da empresa com isso”, aponta Jost.

A pesquisadora diz não ser contra as notas da comunidade, mas reforça que elas precisam estar aliadas a outros processos de checagem. De fato, um levantamento feito pela empresa de dados Lagom Data a pedido da Agência Lupa indicou que, entre março e dezembro de 2023, foram aceitas 8% das 6,8 mil sugestões de notas indicadas pela comunidade de falantes do português na plataforma.

Por que a mudança?

O alinhamento de Zuckerberg ao discurso de Trump e da direita por uma “liberdade expressão” irrestrita não ficou só nas novas políticas das redes sociais. Na sexta-feira (10/01), um dia após o anúncio do fim da moderação independente, a Meta divulgou o encerramento dos programas internos de diversidade e inclusão da empresa.

Além de um aceno trumpista, Zuckerberg pode estar enxergando nesse movimento uma oportunidade de negócios, explica o diretor-executivo do Instituto de Tecnologia & Sociedade (ITS) do Rio de Janeiro, Fabro Steibel. Segundo ele, há uma demanda explícita de atores políticos de direita pela circulação de conteúdo desenfreada e com discursos que até então eram barrados pelas redes sociais da Meta – mas não por concorrentes como o X.

“Estão vindo muito mais Bolsonaros e Trumps do que Bidens e Lulas. Acho que estão apostando nisso, que essas pessoas precisam não de uma plataforma, mas de todas, para espalhar a mensagem. Não é mais questão de conteúdo, é o conjunto de atos, é a viralização”, conclui Stiebel.

Adicionar aos favoritos o Link permanente.