Estudo sobre política e redes traz mais perguntas que respostas

Artigo
28 jul 2023
Imagem
rede social

 

Em uma colaboração sem precedentes, a gigante Meta (empresa que controla o Facebook e o Instagram) firmou parceria com diversas instituições de pesquisa nos Estados Unidos para abrir seus dados e permitir uma avalição do impacto das redes sociais que administra nas eleições presidenciais de 2020 no país.

Uma série de resultados publicados nos periódicos Science e Nature foram divulgados na última quinta-feira, dia 27. Aqui vamos tratar apenas do artigo publicado pela Nature, que sugere que as câmaras de eco, espaços das redes sociais em que os usuários interagem majoritariamente com publicações de pessoas que têm opiniões e interesses parecidos com os seus, não têm tanta influência assim nas decisões do cenário eleitoral. Mas será mesmo?

 

O desenho do estudo

Diversos outros estudos sobre o impacto das redes sociais nas atitudes políticas de seus usuários já foram feitos com dados públicos de redes sociais como Twitter, Instagram e Facebook. A novidade deste estudo é ser o primeiro realizado numa parceria entre cientistas independentes e os donos das redes, permitindo assim um acesso muito mais amplo aos dados e também a realização de intervenções nos algoritmos, para teste de hipóteses.

Mesmo com essas vantagens, existem diversas limitações que interferem na interpretação dos resultados. Vamos analisar algumas.

Os participantes do experimento publicado na Nature foram recrutados por meio de convites para tomar parte numa pesquisa científica apresentados no topo de seus feeds do Facebook entre agosto e setembro de 2020, deram consentimento informado e completaram pelo menos uma onda de pesquisa pós-eleição americana, que aconteceu no dia 3 de novembro de 2020. As mais de 23 mil pessoas inscritas no estudo foram classificadas como conservadoras ou liberais pelo algoritmo do Facebook e alocadas aleatoriamente em dois grupos: tratamento e controle. O algoritmo do grupo tratamento foi calibrado para reduzir a exposição ao conteúdo de amigos, páginas e grupos politicamente afins por três meses (de 24 de setembro até 23 de dezembro), equanto as pessoas do grupo controle continuaram com o algoritmo padrão do Facebook.

Aqui vale destacar que o conteúdo também é classificado como liberal ou conservador pelo algoritmo da rede social. Uma segunda informação digna de nota é que o conteúdo de amigos, páginas e grupos politicamente contrários à ideologia política dos participantes não sofreu qualquer penalidade pelo algoritmo "de tratamento".

Esse foi o desenho básico do estudo, que teve como objetivo avaliar os efeitos da redução da exposição a conteúdo de fontes afins sobre o comportamento dos usuários na plataforma, bem como sobre suas crenças e atitudes políticas.

Os autores acadêmicos independentes tiveram a palavra final sobre o plano de análise, colaboraram com os pesquisadores da Meta na implementação do código do plano de análise e tiveram controle sobre as decisões de análise de dados e sobre o texto do artigo final. Sob os termos da colaboração, o Facebook não poderia impedir que nenhum resultado fosse publicado. Por fim, os acadêmicos não foram financeiramente compensados pela Meta.

 

Resultados e conclusões

Com os dados em mãos os pesquisadores concluíram que:

 

1. A maior parte do conteúdo que os usuários do Facebook veem é de fontes afins, mas apenas uma pequena fração é classificada como “conteúdo político”.  

2. Reduzir a exposição a conteúdo de fontes afins diminuiu o engajamento total com esse conteúdo.  

3. A taxa de engajamento com conteúdo de fontes afins aumentou, ou seja, os participantes que tiveram menos acesso a fontes que concordam com seus pontos-de-vista tenderam a engajar-se mais com o conteúdo afim que "havia sobrado" em suas timelines.  

4. Houve apenas um modesto aumento na exposição a conteúdo político de fontes divergentes.  

5. Apesar de reduzir a exposição a conteúdo de fontes afins em cerca de um terço durante um período de semanas, o experimento não teve efeitos mensuráveis em oito medidas pré-registradas, como polarização, extremismo ideológico, avaliação de candidatos e crença em falsas alegações.

Segundo os autores, “esses resultados desafiam as narrativas populares que culpam as câmaras de eco nas redes sociais pelos problemas da democracia americana contemporânea. Mudanças algorítmicas que diminuem a exposição a conteúdo de fontes afins não parecem oferecer uma solução simples para esses problemas. A informação que vemos nas redes sociais pode ser mais um reflexo da nossa identidade do que uma fonte das opiniões que expressamos”.

 

Uma analogia

Apresentado o estudo e o modo como foi anunciado, podemos agora analisar os métodos e, principalmente, as limitações do trabalho. Embora os autores mencionem algumas delas, como o curto período de tempo, a época de realização (durante a campanha eleitoral) e que o estudo precisaria ser realizado em outros países para que os resultados fossem generalizáveis, diversas outras nem sequer são mencionadas. A mais óbvia é que as pessoas continuaram a utilizar outras redes, como YouTube, Twitter e WhatsApp.

Além disso, os voluntários entraram no estudo por autosseleção. Embora os autores afirmem que a distribuição aleatória entre grupos foi bem-sucedida, a seleção inicial por convite pode ter introduzido viés na amostra.

Uma outra limitação apontada pelos autores é a falta de um grupo que passasse a receber mais conteúdo de fontes afins. Isto poderia, segundo outros estudos, fortalecer atitudes negativas em relação a grupos externos e reforçar o apego ao grupo interno.

Para entender melhor os resultados apresentados anteriormente sugiro o seguinte exercício mental: vamos imaginar que o estudo tenha sido feito em um ambiente real e não digital. Uma praça em uma cidade grande, por exemplo.

Vamos imaginar também que nesta praça existam três áreas separadas, e que seja impossível sair de uma e ir para a outra.

Na primeira área, cem pessoas com camisetas da seleção brasileira e cem pessoas com camisetas vermelhas transitam entre barraquinhas distribuídas pelo espaço restrito. Tem barraquinha de tudo quanto é tipo: comida, joia, roupa e peça de computador. Existem inclusive algumas poucas barraquinhas vermelhas e outras, também em pequena quantidade, com a bandeira do Brasil estampada. Essas duas minorias distribuem conteúdo sobre política. Este é o grupo controle.

No segundo local, o que muda é que temos só um terço das barraquinhas vermelhas, quando comparado com a primeira área, e cem pessoas, mas todas vestindo camiseta vermelha. A quantidade das outras barracas continua a mesma, inclusive das verde-amarelas.

Por fim, no terceiro local a situação se inverte: temos um terço das barraquinhas com a bandeira do Brasil (em comparação com a área controle) e a população, de cem pessoas, está toda vestida com camisetas da seleção brasileira.

Essas duas últimas áreas, vistas em conjunto, são o grupo tratamento.

Vamos focar na primeira. É de se esperar que pessoas com camiseta vermelha interajam mais nas barraquinhas vermelhas, enquanto passeiam pelas outras. Assim como é esperado que pessoas com a camiseta da seleção brasileira interajam mais nas barraquinhas com a bandeira do Brasil. Às vezes as pessoas com a camiseta vermelha podem querer escutar o que o pessoal da barraca verde e amarela está falando, mas logo retornam para o conforto das barracas vermelhas. O contrário também é verdade.

Agora vamos pensar na situação da segunda ou da terceira área, os espaços "de tratamento". Embora tenham composições inversas, são muito semelhantes. Imagine as cem pessoas de camiseta vermelha andando, andando e e encontrando só barracas verde-amarelas. O engajamento total, ou o número de barracas que ela vai interagir, é menor do que se houvesse mais barracas vermelhas.

Então, era esperado que os autores do estudo constatassem que, ao reduzir a exposição a conteúdo de fontes afins, o engajamento total das pessoas no Facebook diminuiria. E isso é um bom sinal do estudo, na verdade. Significa que os selecionados de fato têm uma inclinação maior para o conservadorismo ou para o liberalismo.

Porém, o que não pareceu chamar muita a atenção dos autores é o fato de que a taxa de engajamento com conteúdo de fontes afins aumentou. Pense na felicidade do cidadão de camisa verde e amarela ao encontrar uma única barraquinha com a bandeira do Brasil, no meio de um lugar que parecia ter apenas barracas vermelhas? Certamente ele vai abraçar, curtir, compartilhar, chamar os outros colegas e até postar uma selfie com o dono da barraca. Essa é a taxa de engajamento. As poucas barracas que concordam com o alinhamento do usuário terão um engajamento enorme – porque são "o único jogo na cidade".

Fica no ar o que os autores querem dizer ao destacar esse resultado, e concluir daí que "A informação que vemos nas redes sociais pode ser mais um reflexo da nossa identidade do que uma fonte das opiniões que expressamos". Será que é algo na linha de que se o Facebook parar de colocar conteúdo de fontes afins, a polarização vai ser pior? Ou será que as pessoas já não estão tão condicionadas, por interações prévias nas redes, que não resistem a engajar loucamente com o conteúdo que confirma suas preferências, quando a oportunidade fica limitada? Não sabemos, porque os autores simplesmente não discutem este importante resultado no artigo.

Ainda aproveitando a analogia das barraquinhas, quem disse que o cara vendendo joias não pode falar de política? Ele pode dizer que o relógio verde e amarelo é muito melhor que o vermelho.

Pensando no cenário e no contexto em que a pesquisa foi realizada, os Estados Unidos estavam debatendo temas que vão da vacinação para COVID-19 à legitimidade do processo eleitoral. Não ficou muito claro como o algoritmo do Facebook classificou conteúdos como sendo “politicamente liberais” ou “politicamente conservadores”. A não ser que o caráter fosse explícito, o algoritmo pode ter deixado passar conteúdo com viés político para todos os lados do grupo tratamento.

Uma peculiaridade que é mencionada brevemente na legenda da segunda imagem do estudo é que “os níveis de exposição a conteúdos de fontes afins aumentaram brevemente em 2 e 3 de novembro, devido a um problema técnico; detalhes são fornecidos em Informações Suplementares, seção 4.11”. Ou seja, bem na véspera e no dia da eleição, surgiram barraquinhas vermelhas e barraquinhas amarelas extras nas áreas, que deveriam ficar isoladas, do grupo de tratamento. Depois, os pesquisadores conseguiram expulsar os invasores. Não consegui identificar os detalhes do problema técnico no material suplementar seção 4.11.

O que isso significa? Por ora, nada, mas a frase de conclusão do artigo “A informação que vemos nas redes sociais pode ser mais um reflexo da nossa identidade do que uma fonte das opiniões que expressamos” merece aparecer em um episódio de Black Mirror na Netflix, mas não caberia num primeiro artigo com todas essas limitações.

Parcerias entre indústria e academia são extremamente importantes. É realmente uma oportunidade única acessar os dados de milhões usuários e poder realizar intervenções para avaliar hipóteses. Mas um comentário publicado na própria Science mostra que a liberação de dados não foi tão transparente e facilitada assim.

Luiz Gustavo de Almeida é doutor em microbiologia, diretor de Educação Científica do Instituto Questão de Ciência e atual coordenador nacional do Pint of Science no Brasil

Sua Questão

Envie suas dúvidas, sugestões, críticas, elogios e também perguntas para o "Questionador Questionado" no formulário abaixo:

Ao informar meus dados, eu concordo com a Política de Privacidade.
Digite o texto conforme a imagem

Atendimento à imprensa

11 95142-8998 

11 95142-7899