SÃO PAULO, SP (FOLHAPRESS) – Ainda é bastante incerto o impacto que as medidas anunciadas por Mark Zuckerberg, CEO da Meta, podem ter no cenário eleitoral brasileiro. Há diversas lacunas sobre a forma de implementação e pouca transparência sobre como a empresa já aplicava suas regras vigentes.
Apesar de ele ter prometido voltar atrás na política de redução de alcance de postagens políticas (chamadas na empresa de “conteúdo cívico”), é difícil prever se isso resultará, por exemplo, numa radicalização ainda maior do debate digital ou se algum campo político pode acabar mais beneficiado por novas mudanças no algoritmo.
A Meta é dona do Facebook, Instagram e WhatsApp. Na última terça-feira (7), Zuckerberg divulgou um vídeo anunciando mudanças em políticas de moderação de conteúdo da empresa, no que foi visto como um aceno ao presidente eleito dos EUA, Donald Trump. A decisão inclui o fim do programa de checagem de fatos agora serão os usuários que incluirão correções em postagens que possam conter informações falsas, à semelhança do que ocorre no X (ex-Twitter).
O impacto da implementação das notas da comunidade também dependerá muito de como ela será colocada em prática caso isso ocorra no Brasil.
Entre os pontos em aberto sobre as mudanças, está a forma como esse novo sistema seria criado, quem o comporia e como vieses ideológicos seriam mitigados.
Para além disso, um outro aspecto é o tipo de conteúdos para os quais esse sistema valeria. Hoje, por exemplo, posts de políticos e candidatos não estão dentro do escopo que pode ser analisado pelas agências de checagem, por exemplo.
Outro aspecto relevante é que também não há transparência sobre quais figuras públicas estão em programa que dá espécie de tratamento diferenciado na moderação.
Um cenário que, por ora, se desenha com maior concretude é que, frente à retirada de parte das regras sobre gênero, grupos vulneráveis enfrentem um ambiente digital e de campanha mais violento.
Uma das atualizações passou a permitir, por exemplo, que usuários associem transexualidade e homossexualidade a doenças mentais.
A resolução do TSE (Tribunal Superior Eleitoral) sobre propaganda eleitoral, por outro lado, traz amarras, de modo mais específico do que no restante da legislação, prevendo, por exemplo, a obrigatoriedade de que as empresas adotem medidas eficazes para mitigar certos riscos, entre eles o de violência política de gênero. Também estabelece a necessidade de políticas de conteúdo que busquem diminuir a circulação de desinformação.
Outra medida anunciada pela Meta que pode ter impacto é a retirada da detecção automatizada de “violações de baixa gravidade”, que dependeria então de denúncias de usuários para análise. Não está claro, porém, o que entraria nessa categoria.
A decisão da empresa vai no caminho contrário do que dizem especialistas, que apontam não para a necessidade de diminuir a automatização, dado o volume de posts a cada segundo, mas o de aumentar as equipes humanas de revisão, com conhecimento da língua e do contexto de cada país a empresa não revela quantas equipes do tipo tem hoje.
Viktor Chagas, que é professor de comunicação da Universidade Federal Fluminense, afirma que, por causa da falta de transparência das redes, é um grande desafio tentar medir como se dá a atuação na remoção de conteúdo e em políticas de redução de alcance.
“Sempre foi uma grande caixa-preta, sempre tivemos uma dificuldade extrema de mensurar como é que esse tipo de política de moderação é aplicada”, diz. “A própria definição do que é um conteúdo político, entre os próprios pesquisadores, certamente não seria um consenso assim tão simples.”
Mariana Carvalho, professora da FGV Comunicação Rio, avalia que ainda será preciso entender como as novas regras irão impactar a moderação, mas prevê que o combate à desinformação será mais difícil. Ela ressalta, por outro lado, a dificuldade em fazer estudos sobre o impacto de mudanças, com a crescente dificuldade no acesso a dados pelas plataformas.
Sobre a restrição a conteúdos sobre política, ela diz que é difícil mensurar o quanto a limitação fazia sentido no período eleitoral, em que há grande interesse sobre o assunto.
No ano passado, essa política chegou a ser elencada, com destaque para o aspecto da transparência, entre os motivos da abertura de uma investigação pela União Europeia contra a plataforma. Em 2022, quando ela já estava em vigor, o Brasil viveu uma campanha bastante radicalizada, que culminaria nos ataques de 8 de janeiro.
Um dos efeitos já anunciados nos EUA, e que deve ser replicado em outros lugares no mundo, é que mesmo conteúdos políticos de contas que um usuário não segue passarão a ser recomendados.
Em 2024, essa possibilidade já estava disponível nas configurações. Mas ficou restrita no Brasil durante o período eleitoral devido a uma regra do TSE, prevendo que contas de candidatos não poderiam ser recomendadas.
Carlos Affonso Souza, diretor do ITS (Instituto de Tecnologia e Sociedade) e advogado, considera que ainda é cedo para entender o quanto o que foi anunciado vai afetar o debate eleitoral. Ressalta, por outro lado, que, com as resoluções do TSE, já há um caminho mais bem traçado para lidar com a empresa.
Entre as incertezas, ele destaca que não se sabe se violações de baixa gravidade e que passariam a depender de denúncias de usuários para moderação incluiriam conteúdos sobre integridade eleitoral e produzido por inteligência artificial. E aposta que, para 2026, o TSE deve criar regras sobre o uso de notas de comunidade para moderação, assim como tratou de inteligência artificial no ano passado.
Um ponto de atenção é qual será a postura sobre o tema do ministro Kassio Nunes Marques, indicado por Jair Bolsonaro (PL) para o STF (Supremo Tribunal Federal) e que será o próximo relator do processo de atualização das resoluções eleitorais e presidente do TSE durante o pleito de 2026.
Também eventual finalização do julgamento no STF sobre a responsabilidade das plataformas pode vir a colocar mais barreiras ao que Zuckerberg promete alterar.
Questionada quanto à aplicação das medidas no Brasil, se as restrições de posts de políticos para checagem seriam repetidas no modelo de notas da comunidade e sobre a existência de relatórios sobre como vem aplicando sua política sobre conteúdo político, a Meta se restringiu a enviar o link do anúncio da última semana.
RENATA GALF / Folhapress