Cientistas pesquisam efeitos e causas da polarização política, da pressão do grupo sobre a formação de crenças e sobre a assimilação (ou rejeição) de evidências, sobre a relação entre identidade, apoio social, emoção e o senso do que é (ou não) real há pelo menos 70 anos. “Quando a Profecia Falha”, obra seminal da área, foi publicada em 1956. O estudo do impacto das redes sociais sobre tudo isso é, claro, mais recente – já que as próprias redes são fenômenos relativamente jovens: o Facebook completa duas décadas ano que vem, e o Twitter é de 2006.
Quem trabalha no combate à desinformação e, de modo mais geral, na disseminação de informação correta em contextos conflagrados – como o das falsas controvérsias científicas, por exemplo, em torno do aquecimento global ou da segurança das vacinas – e se preocupa em se manter atualizado com a pesquisa na área precisa fazer um esforço considerável não só para conhecer os clássicos e dominar os conceitos fundamentais da área, como também para acompanhar a literatura recente e, o que é crucial, tentar extrair algum sentido e orientação prática de resultados experimentais: afinal, até que ponto efeitos detectados em laboratório, em simulações ou por meio de questionários de pesquisa refletem o modo como as pessoas pensam e interagem “na natureza”?
Para alegria de todos (ou, pelo menos, a minha), mês passado esse esforço foi sensivelmente reduzido: saiu “Foolproof” (“À Prova de Idiotas”, na minha tradução livre), livro do psicólogo social Sander van der Linden, da Universidade de Cambridge. Trata-se de uma espécie de “Uma Breve História do Tempo” da pesquisa sobre desinformação: assim como a obra de Stephen Hawking sobre cosmologia, é um livro acessível, agradável, de autoria de uma das maiores autoridades da área e que apresenta e explica o campo – não só as descobertas clássicas, mas também resultados avançados – para o cidadão não especialista.
Boas notícias
Alguns anos atrás, aquilo a que me refiro como campo da comunicação científica em contextos conflagrados (por conveniência, vamos abreviar como “5C”) passou por algo que só pode ser definido como uma fase gótica: resultados experimentais que evidenciavam a existência e resiliência de fenômenos como o “efeito rebote” (ou “efeito tiro pela culatra”) e raciocínio motivado convenceram muita gente de que fazer 5C era impossível, perda de tempo, sinal de arrogância e, fundamentalmente, contraproducente.
Mas o que são esses fenômenos? O “rebote” acontece quando a exposição à informação correta não leva o negacionista a reavaliar suas crenças, mas a agarra-se a elas de forma ainda mais intensa, radicalizando-se; raciocínio motivado ocorre quando o negacionista lança mão de seus recursos cognitivos a fim de inventar razões para invalidar a evidência contrária apresentada.
Embora os resultados registrando ambos os efeitos fossem limitados a contextos específicos, bastaram para gerar um movimento gótico-niilista ou, como Natalia Pasternak e eu definimos em outro texto, “odara”, que preconizava que o melhor que a comunicação pública da ciência poderia fazer era comentar como são legais as penas dos dinossauros e talvez isso quem sabe, em algum momento, atraísse alguns dos desgarrados para o bom caminho.
Quanto a isso, Van der Linden traz uma ótima notícia (ou má, no caso dos góticos que curtem a franja desfiada e a sombra forte ao redor dos olhos): tiro pela culatra e raciocínio motivado existem, mas não muito mais raros do que a propaganda niilista sugeria. A maioria das pessoas é capaz, sim, de reconhecer uma correção válida de suas crenças e mudar de ideia. Citando diretamente o autor: “’Polarização de crenças’ ou ‘efeitos rebote’ são muito mais raros do que se pensava inicialmente, e mesmo quando as pessoas são motivadas, existe um limite (...) as pessoas, no fim, sucumbem a repetidas correções de suas crenças”.
Más notícias
Mas, como de costume, há uma pegadinha: raciocínio motivado e tiros pela culatra são ativados e podem ser agravados por condições do meio emocional e sociocultural. Um dos principais gatilhos é a polarização. E existem redes e mídias sociais.
Este é outro ponto em que a literatura científica, se lida de modo fragmentado, parece conter resultados contraditórios, e que o livro de Van der Linden ajuda a pôr em perspectiva: o papel de redes como Twitter e Facebook na criação das condições que levam ao ódio, à divisão social e, por tabela, à desinformação e ao negacionismo. Há dois modelos “ingênuos” a respeito disso: um propõe que as redes causam esses males; outro, que elas apenas os evidenciam.
O primeiro diz que fraturas na sociedade real são provocadas por comportamentos nas redes. O segundo, que o comportamento nas redes apenas expressa, ou torna visíveis, fraturas reais que já existiam antes da internet. Em geral, pesquisas conduzidas por cientistas independentes pendem para a primeira conclusão, e estudos financiados pelas redes (como um famoso paper publicado na Science) inclinam-se para a segunda.
O balanço geral oferecido por “Foolproof” equilibra ambas as hipóteses, mas com uma ênfase sombria: as redes talvez não criem divisões, muitas das quais já estão, de fato, latentes no mundo offline, mas certamente estimulam, incentivam e premiam a radicalização, a polarização e a hostilidade. Em suma, a dinâmica das redes acelera – se não causa – a transformação de discordância em hostilidade, divergência em ódio, empurra adversários para cantos opostos até que se tornem inimigos.
Van der Linden é especialmente crítico do uso, por plataformas como o Facebook, do argumento de que a polarização e a hostilidade são “ruins para os negócios”, logo não há incentivo para que os algoritmos estimulem a radicalização dos usuários. Não é isso que os números e a ciência têm mostrado, escreve o psicólogo: conteúdo negativo e hostil é o que gera maior engajamento, a métrica mais buscada pelas redes.
“Os algoritmos das redes sociais realmente oferecem portas de entrada para desinformação, polarização e extremismo?”, pergunta o pesquisador, para responder em seguida: “mal começamos a tocar a superfície do problema – mas os resultados são perturbadores”. Ele cita um estudo com 50 mil americanos que mostrou que quando as pessoas navegam a web por conta própria sua “dieta midiática” torna-se muito menos polarizada e radical do que quando seguem links apresentados em redes sociais.
Sanduíche
O livro é estruturado de forma que cada capítulo termina com uma série de sugestões práticas – baseadas na ciência apresentada – sobre como combater desinformação. A conclusão geral é que precaver (por meio de estratégias de “inoculação”, ou “prebunking”) é melhor do que remediar: a correção de um fato incorreto sempre vai competir, na mente da pessoa enganada, com a afirmação anterior do erro. Também, que quando necessário fazer um desmentido, remediação ou correção, o melhor é estruturar a mensagem de forma a escapar dos gatilhos emocionais que levam à polarização.
‘Foolproof” traz um esquema e uma descrição do “sanduíche da verdade”, uma estrutura textual (que também serve para roteiros de vídeo e outras mídias) que é o modelo de desmentido de desinformação mais eficiente – ao menos, de acordo com a ciência disponível até agora. Existe uma boa explicação do “sanduíche”, passo a passo, no Manual da Desmistificação, cuja leitura recomendo fortemente.
De modo bem resumido, a técnica do “sanduíche” preconiza que os fatos devem dominar a narrativa – a primeira e a última coisa a que o leitor (ou espectador, ou ouvinte) deve encontrar no conteúdo é a verdade sobre o assunto. A verdade é o “pão” do sanduíche. A “carne”, por sua vez, é composta pelo mito que se está desmentindo – deixando-se bem claro que se trata de um mito – e por uma explicação de como sabemos que aquela alegação é falsa, e de uma dissecação das manobras desonestas usadas para fazê-la soar razoável.
Escrever em “sanduíche” não é muito intuitivo – o mais natural, para a maioria das pessoas, é começar com o mito e, a partir de um encadeamento lógico de argumentos, concluir com o fato – mas psicologicamente esta representa uma abordagem arriscada. O leitor desatento, ou que parar pelo meio, vai ficar com a reafirmação do mito na cabeça e apenas uma vaga ideia dos erros envolvidos.
Vacina
O terço final da obra é dedicado à pesquisa específica de Van der Linden e colegas sobre o uso de estratégias de “inoculação”, ou “vacinação”, para conter os efeitos sociais de desinformação e manipulação psicológica. O conceito geral, apoiado em evidência empírica, é de que pessoas expostas a versões “atenuadas” de mentiras ou técnicas manipulativas adquirem alguma resistência, mensurável, a tornarem-se vítimas dessas mentiras ou técnicas no mundo real.
Vale a pena investigar um pouco o que significa “atenuada”, nesse contexto – lembre-se de que, pelo esquema do “sanduíche”, em geral é má ideia dar visibilidade a um mito. A atenuação ocorre quando a apresentação da falsidade ou falácia é feita de forma controlada, didática e educativa, precedida do aviso de que se trata de conteúdo ou truque malicioso, e se possível num contexto lúdico e satírico. Van der Linden descreve um jogo virtual de “inoculação” contra polarização política onde o pomo da discórdia é o uso de abacaxis em pizzas, e outro contra o aliciamento de jovens por grupos extremistas que supostamente busca recrutar terroristas para a Frente de Libertação Contra o Gelo (dedicada à “causa” de detonar as calotas polares).
Nessas condições, pessoas expostas à inoculação mostram um aprimoramento – cuja magnitude pode variar muito, dependendo do contexto, técnica usada, mídia adotada, tema da desinformação, entre outros fatores – na capacidade de detectar e rejeitar falsidades e manipulações. Assim como no caso de muitas vacinas biológicas, esses ganhos, para se manter, requerem doses de reforço periódicas.
E como que mencionei vacinas biológicas, é justo acrescentar que um número crescente de pesquisadores de áreas como imunologia e microbiologia vem mostrando preocupação com o risco de a analogia entre o “prebunking” psicológico e o sistema imune fisiológico estar sendo levada um pouco longe demais: paralelos que deveriam apenas iluminar de repente acabam sendo levados ao pé da letra, ou pior, conceitos fundamentais da área cooptada acabam distorcidos para servir melhor à metáfora (nada disso é um problema em "Foolproof", aliás).
Como já notei em outros escritos, a ponte entre metáfora ilustrativa e delírio pseudocientífico é curta e fácil de cruzar, ainda mais quando os conceitos envolvidos capturam a cultura popular e são vistos como “sexy”. Seria uma pena se uma área até agora tão frutífera e promissora acabasse se perdendo nesse caminho.
Carlos Orsi é jornalista, editor-chefe da Revista Questão de Ciência, autor de "O Livro dos Milagres" (Editora da Unesp), "O Livro da Astrologia" (KDP), "Negacionismo" (Editora de Cultura) e coautor de "Pura Picaretagem" (Leya), "Ciência no Cotidiano" (Editora Contexto), obra ganhadora do Prêmio Jabuti, e "Contra a Realidade" (Papirus 7 Mares)