Um fantasma que constantemente assombra o campo da comunicação da ciência, mas que se faz ainda mais presente em tempos de urgência como o que vivemos, é o do niilismo: a convicção de que a atividade de disseminar informação correta e desfazer enganos, propagados por confusão ou má-fé, é essencialmente inútil, é pôr band-aid em fratura exposta, dar murro em ponta de faca, esvaziar o oceano com colher de chá, etc., etc..
Esse niilismo costuma manifestar-se em duas matrizes, ideologicamente opostas, mas que muitas vezes ocorrem de forma sucessiva ou cruzada, partindo, até, das mesmas fontes: a populista e a aristocrática.
A aristocrática é a mais crua: “as pessoas” são idiotas mesmo, ninguém entende nada, todos são prisioneiros incomunicáveis de seus preconceitos e vieses cognitivos e habitam bolhas ideológicas herméticas e invioláveis, então dane-se.
A populista também, de certa forma, pressupõe bolhas ideológicas herméticas e invioláveis, mas faz uma leitura menos dura e mais condescendente do (suposto) fenômeno, e não raro chega a celebrá-lo, como se a “diversidade de pontos de vista” sobre a forma da Terra, a influência de Saturno na vida amorosa dos adolescentes ou a efetividade de antibióticos como antivirais fosse algo a comemorar.
Ambas as matrizes são, no fundo, bastante elitistas. Estudiosos que buscam avaliar o impacto de peças de comunicação de massa sobre a sociedade – digamos, um filme violento, um discurso racista –, reconhecem, há tempos, a existência de um viés implícito que, se não combatido, leva-os a encarar “os outros”, ou “a sociedade”, como extremamente ingênuos, indefesos e suscetíveis a “mensagens nocivas”, e a ver “nós mesmos”, os pesquisadores, como críticos, alertas, atentos e instruídos.
Algo semelhante ocorre em comunicação da ciência, embora me pareça que, neste campo, a dificuldade é bem menos reconhecida, daí o senso de superioridade inconsciente que marca ambas as vertentes do niilismo. “Eles outros” estão presos em bolhas; “nós mesmos” somos racionais e abertos à evidência.
Embora seja verdade que há pessoas tão presas a crenças que veem como arraigadas a, ou indissociáveis de, suas identidades – políticas, étnicas, culturais, etc. – que fazê-las mudar de ideia há de requerer um choque psicológico comparável a uma conversão religiosa, também há o fato bruto de que pessoas aprendem coisas novas e mudam de ideia o tempo todo: a história da humanidade é a história da superação de crenças e substituição de pensamentos.
O que cada vez mais se pressupõe, e que alimenta o niilismo extremo que volta e meia dá as caras nos dias atuais, é que o clima corrente de polarização política aumentou de modo desproporcional o número das crenças do tipo “conversão religiosa”, categoria que teria passado a incluir temas que, tempos atrás, seriam alvo de debate racional e desapaixonado.
O que pode até ser verdade, mas ainda assim falta demonstrar que o número de pessoas que adere a esse “modo fanático” de ver o mundo também disparou a ponto de tornar a comunicação em larga escala inútil, e até que a “bolha” dos fanáticos realmente seja impenetrável.
Tendo em mente o viés “eles outros/nós mesmos”, faz mais sentido um modelo de diferentes bolhas, com diferentes graus de permeabilidade – graus que precisam ser testados, caso a caso, no limite indo além das bolhas de grupo e chegando às individuais. Escreve-se muito sobre o perigo das amostras viciadas, mas ao mesmo tempo leva-se a sério, como representativo, o que é produzido pela fração mais barulhenta dos trolls de rede social.
Recentemente, o pesquisador canadense Timothy Caulfield publicou uma revisão da literatura sobre combate a crenças pseudocientíficas, com vistas, especificamente, ao contexto online. Ele destilou o material em uma série de sete conselhos:
1. Use fatos, e de preferência apresente-os sob a forma de uma explicação. A crença errônea geralmente inclui uma ideia de porque as coisas são como são: o esclarecimento pode ser malvisto por “roubar” esse conforto psicológico. Oferecer explicações alternativas tende a preencher o vazio cognitivo e reduzir a resistência.
2. Seja o mais claro, direto e simples possível. Quanto menos jargão, melhor.
3. Use fontes confiáveis, independentes e que sejam vistas como desinteressadas. Se a pessoa está convencida de que a indústria farmacêutica é uma máfia, citar bulas de remédio pode não ajudar.
4. Se possível, chame atenção para o consenso científico. O argumento de que mais de 90% dos especialistas num assunto concordam que "X" é uma má ideia tem força.
5. Seja gentil. Ironia, sarcasmo, falas que partem de uma posição presumida de superioridade não funcionam. O tom ideal é: "vamos descobrir juntos onde está a verdade nessa história".
6. Se possível, estruture as explicações como narrativas. Conte uma história, ilustre o argumento com analogias e exemplos. É mais fácil assimilar uma "moral da história" do que um argumento abstrato.
7. Chame atenção para os erros de raciocínio e estratégias inválidas de argumentação cometidas e usadas por quem vende a pseudociência. Exponha a falta de conexão lógica, o uso seletivo de evidência, etc.
Esses pontos não garantem sucesso, e alguns (a primeira parte do número cinco, principalmente, dado o clima atual de exasperação generalizada) são difíceis de implementar, mas o roteiro sugerido pode, no mínimo, trazer um norte para aquelas horas em que o niilismo parece prestes a engolir tudo.
Carlos Orsi é jornalista, editor-chefe da Revista Questão de Ciência e coautor do livro "Ciência no Cotidiano" (Editora Contexto)