RÁDIO AO VIVO
Botão TV AO VIVO TV AO VIVO
Botão TV AO VIVO TV AO VIVO Ícone TV
RÁDIO AO VIVO Ícone Rádio

Polarização gerada por redes sociais se mantém mesmo com mudança em algoritmo

SÃO CARLOS, SP (FOLHAPRESS) – O estudo mais amplo já feito sobre os algoritmos das redes sociais e seu impacto no comportamento e opiniões dos usuários sugere que não há soluções tecnológicas simples para a polarização política na web. Mudanças no funcionamento dos algoritmos, conduzidas durante as pesquisas ao longo de três meses, não alteraram a visão dos internautas sobre quem está do outro lado do espectro ideológico.

Os resultados, detalhados em quatro artigos nas duas maiores revistas científicas do mundo, a Science e a Nature, são uma colaboração entre pesquisadores de universidades americanas e o conglomerado de tecnologia Meta, enfocando duas de suas maiores redes, o Facebook e (em grau bem menor) o Instagram.

Todas as análises foram realizadas com base em informações colhidas durante a eleição de 2020 nos EUA, na qual Joe Biden foi eleito presidente em meio a falsas acusações de fraude feitas por Donald Trump, o então ocupante da Casa Branca.

“Como usuários, todos temos intuições sobre como as redes sociais funcionam, mas esse senso comum muitas vezes está errado. Estudos como esses ajudam a testar essas intuições”, explicou em entrevista coletiva online a coordenadora de um dos trabalhos, Sandra González-Bailón, da Universidade da Pensilvânia.

O estudo em que González-Bailón é a primeira autora mostra como a exposição a notícias sobre política durante a eleição americana estabeleceu uma segregação entre “liberais” e “conservadores” (ou, como se diz com mais frequência no Brasil, esquerda e direita) no Facebook.

Os outros dois trabalhos, liderados por Andrew Guess, da Universidade Princeton, foram experimentais, alterando a maneira como os usuários do Facebook e do Instagram recebiam informações na “linha do tempo” (a sequência de postagens que vão aparecendo).

Num deles, a mudança experimental foi transformar a “linha do tempo” numa lista exclusivamente cronológica de postagens, da mais recente para a mais antiga, conforme a pessoa vai descendo a página. É algo bem diferente do que acontece hoje: o algoritmo atual apresenta ao internauta postagens numa ordem supostamente ligada aos interesses dele com base no que ele clicou, curtiu e comentou anteriormente, na sua rede de “amigos” etc.

Já o outro estudo chefiado por Guess eliminou em grande parte a exposição das pessoas a conteúdo compartilhado —digamos, uma postagem feita originalmente por um famoso ou político que um dos “amigos” do usuário compartilhou na linha do tempo.

Propostas cujo objetivo é tornar as redes sociais um ambiente mais decente —e menos polarizado politicamente— defendem esse tipo de medida já faz algum tempo. Ambas, em tese, seriam capazes de expor os usuários a uma gama de opiniões e personalidades menos restrita, sem reforçar o tempo todo os interesses que aquela pessoa já tinha manifestado. Além disso, ajudariam a minimizar a chance de que notícias falsas e conteúdo ofensivo ou chocante viralizasse rapidamente.

No caso do estudo que adotou a ordem cronológica da linha do tempo, da qual participaram —com consentimento informado— 23 mil usuários do Facebook e 21 mil pessoas com contas no Instagram, um efeito muito claro da mudança foi a diminuição do tempo passado na rede social, de 20% e 15%, respectivamente, diz Guess. Por outro lado, os usuários tentaram compensar essa relativa abstinência acessando plataformas de vídeos. As pessoas também passaram a receber menos conteúdo de “amigos” e mais de páginas e grupos que curtiram e ficaram expostas a pessoas mais moderadas politicamente.

Por outro lado, houve um ligeiro aumento da presença de conteúdos com informações não confiáveis na linha do tempo. E não houve nenhuma mudança mensurável em fatores como medidas de polarização política dos usuários ou interesse por eleições e outros temas políticos.

No caso da mudança que impediu o compartilhamento de postagens, os resultados foram parecidos. Embora, nesse caso, a exposição das pessoas a notícias políticas e informações falsas tenha diminuído, não houve efeito mensurável sobre a polarização dos usuários das redes.

Por sua vez, o estudo sobre o ecossistema de notícias consumidas por “liberais” e “conservadores” dentro do Facebook revelou que existe um “funil da polarização” na plataforma. Isso significa que o algoritmo começa mostrando às pessoas notícias significativamente diferentes na linha do tempo, dependendo da orientação política. Essa diferença se afunila ainda mais e fica mais intensa quando se mede o engajamento direto das pessoas —curtindo e comentando, por exemplo.

Esse trabalho mostrou ainda que a “bolha” formada por conservadores no Facebook é menos permeável a visões diferentes do que a dos liberais, além de estar mais recheada de notícias falsas do que a do campo político oposto.

Joshua Tucker, pesquisador da Universidade de Nova York que é um dos coordenadores do conjunto de estudos, aponta que os trabalhos têm uma série de limitações. Além do período de três meses —muito longo para o padrão das pesquisas feitas até agora, mas talvez curto levando em conta os anos de convívio das pessoas com redes sociais—, há também o fato de que ele foi feito justamente durante as eleições americanas e nas condições já muito polarizadas dos EUA.

Mesmo assim, os dados são importantes para refletir sobre intervenções sobre o problema. “O que temos visto é que os efeitos das intervenções às vezes acontecem simultaneamente em direções opostas e que eles produzem muitas consequências não pretendidas”, diz Guess.

REINALDO JOSÉ LOPES / Folhapress

COMPARTILHAR:

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTÍCIAS RELACIONADAS