As táticas conspiracionistas para driblar moderação na rede

Artigo
4 abr 2024
Autor
rede social

A onda de desinformação nas redes sociais não surgiu com a pandemia de COVID-19, mas a "infodemia" que acompanhou a disseminação do vírus pelo mundo chamou a atenção do público e governos para a questão, obrigando as empresas a reforçarem o combate ao problema. Entre elas, a Meta, dona do Facebook e do Instagram. Ainda em março de 2020, logo após a Organização Mundial da Saúde (OMS) oficializar a emergência sanitária global, a Meta anunciou o que viria a ser a primeira de suas medidas neste sentido, prometendo "ações agressivas" para impedir que a desinformação e conteúdos potencialmente perigosos se espalhassem nas suas redes.

No caso do Facebook, estas ações envolveram uma mistura de ajustes nos algoritmos e moderação, numa estratégia que é descrita pela própria Meta como tendo três prioridades: a remoção de conteúdos perigosos, a redução na sua disseminação e a propagação de informação confiável no seu lugar. Mas, enquanto a empresa focava esforços de remoção nos conteúdos que considerava contribuir para "danos físicos iminentes" no público, como alegações sobre falsas curas e riscos das vacinas para a COVID-19, outras informações problemáticas, como teorias conspiratórias em torno da origem do vírus, foram alvo de medidas menos radicais, como a redução de distribuição pelos algoritmos (demoting) e rotulagem (labelling) com alertas de que foram apontadas como enganosas por serviços de checagem de fatos.

Segundo a Meta, a ideia por trás desta estratégia se baseia na noção de que a decisão pela remoção de conteúdos que não violam claramente os padrões da comunidade supostamente atrairia mais atenção para eles, além de incentivar os produtores deste tipo de conteúdo a encontrar maneiras de burlar a moderação. Muitos acadêmicos e especialistas, no entanto, criticam a abordagem, apontando os próprios interesses comerciais da empresa, que assim evitaria remover conteúdos e contas que atraem grande tráfego e engajamento.

Outro problema é a falta de transparência dos processos envolvendo os algoritmos, com a redução na distribuição dos conteúdos problemáticos podendo ser observada pelos usuários das páginas e vista como uma "remoção fantasma" (shadow banning). Assim, eles acabam usando a ação como uma "medalha de honra" e "prova" de uma suposta "perseguição" que estariam sofrendo pelas "elites", "governo", "grande mídia" etc, de maneira similar às estratégias de propaganda e redirecionamento de tráfego adotadas por promotores de "saúde alternativa" e pseudociências médicas, detectadas em outros estudos sobre desinformação e negacionismo nas redes sociais.

 

Resultados paradoxais

Diante disso, um grupo de pesquisadores da Universidade de Tecnologia de Sydney, Austrália, decidiu investigar os reais impactos destas ações que não a remoção na disseminação de desinformação sobre a COVID-19 e vacinas na rede social. Em estudo publicado recentemente no periódico Media International Australia, eles usaram métricas de engajamento e cronológicas para avaliar a velocidade de propagação e alcance destes conteúdos em 18 páginas australianas, conhecidas por espalhar desinformação no Facebook, à medida que a Meta implementava regras mais rigorosas de moderação de conteúdos ao longo do auge da pandemia (2020/2021), tendo como comparativo seu desempenho em 2019.

Os resultados mostraram que, embora estas medidas tenham diminuído o alcance da maioria das páginas, duas delas acabaram concentrando engajamento e tráfego de uma forma que mais do que contrabalançou a queda geral. Além disso, uma análise mais detalhada dos conteúdos destas duas páginas revelou algumas das principais táticas usadas pelos conspiracionistas para driblar as medidas adotadas Facebook, e que levaram a este paradoxal resultado.

Um delas é conhecida como "esteganografia social", a substituição de letras em palavras ou mesmo de palavras inteiras por símbolos e emojis de forma a evitar a detecção de termos chave monitorados pelas ferramentas automáticas de moderação das redes sociais. Desta forma, por exemplo, palavras como "vacina" são grafadas como "v4cln4" ou trocadas por imagens de seringas nas publicações e comentários.

Outra estratégia comum observada por eles foi a chamada "semeadura de informação" (seeding) - no caso, desinformação -, usando os comentários nas publicações para propagar mais conteúdo conspiracionista e negacionista, geralmente adotando uma linguagem codificada e siglas. Termos como "agenda" para se referir às políticas de enfrentamento da pandemia e sua suposta relação com o mais variado cardápio de teorias da conspiração, "experimental" quando o assunto for as vacinas, ou ainda "MSM" para se referir à chamada "Grande Mídia" ("Mainstream Media" em inglês).

Outro recurso muito usado são os chamados breadcrumbs ("migalhas de pão"). Como na fábula de João e Maria, estas publicações e comentários são usados para "guiar" o público para material conspiracionista disponível fora do Facebook, seja outras redes sociais com moderação menos rigorosa ou inexistente, serviços de hospedagem de vídeos, sites independentes, aplicativos de mensagens ou mesmo repositórios de arquivos, novamente não muito diferente das estratégias identificadas de promotores de medicina alternativa.

Os autores também observaram chamados frequentes para transmissões ao vivo. Eles ressaltam que como as discussões nestas transmissões não podem ser monitoradas por sistemas automáticos - como os filtros de textos que detectam palavras chave - e costumam ser longas, com 30 minutos ou mais, sua revisão para possível remoção ou rotulagem é trabalhosa e exige recursos humanos. Segundo os pesquisadores, a opção de concentrar as publicações neste tipo de conteúdo foi de grande valia para uma das páginas analisadas, tocada por um conhecido ativista antivacina australiano, que viu seu público e engajamento na forma de comentários e reações explodir na pandemia.

"Apesar das alegações de censura e ‘shadow banning’, levando o dono da conta a considerar plataformas alternativas, a página continuou a registrar um engajamento estável no período e tinha uma bem fornida loja no Facebook, pela qual vendia livros sobre a 'plandemia', argumentos contra o uso de máscaras e mesmo camisetas identificando o usuário como antivacina", destacam. "Isto demonstra como o desenho do Facebook permitiu ao dono da página lucrar com as compras dos usuários na loja, inclusive de itens com conteúdo mais extremista que ele não poderia publicar na própria página".

Os pesquisadores concluem então que embora não seja possível dizer se as mudanças nos padrões de comunidade e endurecimento de sua fiscalização pelo Facebook levou a uma mudança de comportamento dos usuários, a análise do conteúdo e temática das contas que melhoraram seus desempenho após a adoção de uma moderação mais rigorosa dá pistas das reações que podem ser esperadas pelas comunidades afetadas por medidas como o shadow banning e rotulagem de conteúdos enganosos.

Segundo eles, com relação à rotulagem, o estudo mostrou que a ideia de que informar os usuários com um determinado conteúdo contém desinformação ou é perigoso, na tentativa de persuadi-los a não o compartilhar, não se sustenta, quando se lida com comunidades investidas na promoção deste conteúdo.

"Neste e em outros estudos, em que as comunidades estão investidas em narrativas particulares, os resultados mostram que elas fazem todo possível para se engajar com estes conteúdos e os compartilhar", apontam.

O mesmo vale para a ideia de que a redução da distribuição destes conteúdos via algoritmos (demoting e shadow banning) é melhor que a remoção para evitar chamar atenção indevida, ou encorajar os usuários a encontrar maneiras de fugir da moderação.

"Em vez disso, a decisão de fazer o shadow ban é frequentemente notada pelos usuários de uma comunidade. No lugar de permitir que tal tipo de conteúdo seja suprimido, os usuários, neste estudo, mobilizaram-se para encontrar maneiras de contornar as medidas - em suma, eles se uniram como uma comunidade, para vencer o algoritmo, no lugar de permitir que o algoritmo continue a determinar que tipo de conteúdo eles acessam e como", avaliam os pesquisadores.

 

Cesar Baima é jornalista e editor-assistente da Revista Questão de Ciência

Sua Questão

Envie suas dúvidas, sugestões, críticas, elogios e também perguntas para o "Questionador Questionado" no formulário abaixo:

Ao informar meus dados, eu concordo com a Política de Privacidade.
Digite o texto conforme a imagem

Atendimento à imprensa

11 95142-8998 

11 95142-7899