Confesso que minha intenção original era não escrever nada, absolutamente nada, sobre o projeto de lei “das Fake News”, em tramitação na Câmara Federal. O motivo é simples: porque já escrevi demais. Sobre o dever cívico e moral de curadoria de que as redes sociais, aplicativos de mensagem e motores de busca tentam, cinicamente, se eximir; sobre os incentivos perversos que levam os algoritmos implementados por essas plataformas a promover ódio e divisão; sobre os riscos de envolver o aparato do Estado no combate à desinformação; e até sobre as armas de desonestidade intelectual usadas por quem deseja melar esse e outros debates (aqui e aqui).
Mas então alguém me lembrou de que a internet é o império da redundância – que toda mensagem importante precisa ser repetida ad infinitum, porque sempre haverá que não viu ou não estava prestando atenção da primeira vez, ou quem só chegou agora, e a triste verdade é que a maioria das pessoas é preguiçosa demais para pesquisar ativamente um assunto (qualquer assunto) e prefere formar opinião com base no primeiro comentário que lhe cai no colo.
E isso é o que parece estar ocorrendo no debate em torno do Projeto de Lei 2630/20. Quem se der ao trabalho de ler a proposta verá que a forma como a disputa está sendo moldada – e travada – na opinião pública tem muito pouco a ver com o que está, de fato, em pauta: apresentam-se espantalhos, não questões relevantes. Interesses (se não escusos, certamente malandros) vêm tentando enquadrar a questão como uma espécie de disputa entre pares de ideais platônicos – seja Golpismo vs. Estado de Direito, seja Liberdade de Expressão vs. Censura. Trata-se, em todos os casos, de falsas dicotomias, construídas de modo a provocar rejeição moral, emocional e automática de um dos polos, sem espaço para reflexão.
A teoria
Para, talvez, surpresa de alguns, em momento nenhum a lei estabelece um “Ministério da Verdade” para arbitrar o que pode ou não circular na internet. Ela cria, sim, uma camada extra de deveres para as redes sociais e mecanismos de busca, forçando-os a levar em conta – na hora de calibrar seus algoritmos e moderar conteúdos, coisas que essas plataformas já fazem o tempo todo, com vistas a aumentar engajamento e receita – alguns detalhes comezinhos, a saber, as leis brasileiras já existentes sobre publicidade enganosa, direito do consumidor, combate ao racismo, ao terrorismo, defesa das crianças, dos idosos e os direitos fundamentais contidos na Constituição. Essa camada recebe o nome de “dever de cuidado”.
Está escrito assim:
Art. 11. Os provedores devem atuar diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços, envidando esforços para aprimorar o combate à disseminação de conteúdos ilegais gerados por terceiros, que possam configurar:
I - crimes contra o Estado Democrático de Direito, tipificados no Decreto-Lei no 2.848, de 7 de dezembro de 1940;
II - atos de terrorismo e preparatórios de terrorismo, tipificados pela Lei no 13.260, de 16 de março de 2016;
III - crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, tipificado no Decreto-Lei no 2.848, de 7 de dezembro de 1940;
IV - crimes contra crianças e adolescentes previstos na Lei no 8.069, de 13 de julho 1990, e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, tipificados no Decreto-Lei no 2.848, de 7 de dezembro de 1940;
V - crime de racismo de que trata o art. 20, 20-A, 20-B e 20-C da Lei no 7.716, de 5 de janeiro de 1989;
VI – violência contra a mulher, inclusive os crimes dispostos na Lei no 14.192, de 4 de agosto de 2021; e
VII - infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional, de que trata o art. 10 da Lei no 6.437, de 20 de agosto de 1977.
O projeto também define ritos para a moderação e exclusão de conteúdos, incluindo direito de defesa e de recurso pelo autor do material excluído, além da criação de protocolos de atendimento. E obriga as plataformas a serem muito mais transparentes do que hoje em dia são com seus algoritmos, estratégias e produtos de publicidade. Meu artigo favorito da lei, aliás, é este aqui:
Art. 28. O provedor que ofereça publicidade de plataforma deve disponibilizar mecanismos para fornecer aos usuários as informações do histórico dos conteúdos publicitários com os quais a conta teve contato nos últimos 6 (seis) meses, detalhando informações a respeito dos critérios e procedimentos utilizados para perfilamento que foram aplicados em cada caso.
Em outras palavras, você passa a ter o direito de saber quem tentou lhe manipular psicologicamente explorando seu perfil pessoal, quantas vezes isso aconteceu e em que tipo de perfil a rede lhe encaixou. É o mágico da persuasão sendo forçado a explicar o passo-a-passo do truque, o que talvez seja a coisa mais saudável que se poderia receitar para a democracia moderna.
O projeto abre ainda caminho para as plataformas serem condenadas a indenizar vítimas de crimes causados por falhas em cumprir o “dever de cuidado”.
A prática
Em termos práticos, não parece nada absurdo exigir, digamos, do Facebook que passe a tratar ameaças de terrorismo com o mesmo rigor que trata fotos de mamilos. É obrigar as plataformas a, finalmente, sair da posição de Pilatos em que se colocam, lavando as mãos diante de atrocidades que se viabilizam em seus espaços e que seus algoritmos, muitas vezes, incentivam.
A coisa fica nebulosa, no entanto, quando nos perguntamos quem vai fiscalizar e impor o cumprimento do dever de cuidado. O projeto, do modo como está, não deixa isso claro: obriga as companhias a produzir relatórios e auditorias, mas não diz a quem devem ser apresentados. Originalmente, haveria um novo órgão criado especificamente para isso; mas a hipérbole do “Ministério da Verdade” fez com que a ideia fosse deixada de lado. Tem-se falado em passar a atribuição à Anatel, ao Comitê Gestor da Internet ou a um órgão de autorregulação das plataformas, sob supervisão do Ministério Público.
Cada uma das hipóteses tem problemas. Autorregulação tende a ser frouxa e condescendente (“autonomia do médico”, lembra?), levar para a Anatel mistura alhos (regulação tecnológica e econômica) a bugalhos (supervisão de competência editorial) e, em geral, qualquer órgão técnico-regulatório vinculado ao Estado, principalmente no Brasil, logo vira alvo de campanhas captura, seja econômica (pelo setor que deveria ser alvo de fiscalização) ou político-partidária (por aparelhamento, hábito arraigado tanto à esquerda quanto à direita).
Por causa disso, há quem ache melhor não fazer nada. Mas à medida que se acumula a evidência de dano sistêmico causado à democracia e ao debate público pelo estado atual das redes (onde a única “moderação” consistente visa à felicidade dos anunciantes), esta não parece uma opção responsável.
Princípios
A ideia de que impor às plataformas online qualquer tipo de responsabilidade legal sobre o que veiculam representa uma ameaça à liberdade de expressão remonta a um debate travado nos Estados Unidos há quase 30 anos, e que culminou, em 1996 (!!), numa regra chamada Seção 230, que fundamentalmente equipara serviços online a bibliotecas ou bancas de jornal: se algum dos “livros” ou “jornais” disponíveis ali contiver algo ilegal, o problema é do autor (ou da empresa jornalística), não da bibliotecária ou do jornaleiro.
A razão é fácil de entender: se os provedores de serviços online tivessem de se defender na Justiça cada vez que alguém se dissesse ofendido por algo publicado em suas plataformas, eles acabariam não fazendo outra coisa, e os custos – seja com advogados, seja com moderadores para filtrar todo o conteúdo ofertado – acabariam inviabilizando a internet como negócio, ou levariam as empresas a, preventivamente, adotar padrões de censura draconianos.
O detalhe é que, em 1996, o máximo que havia de “social” na internet eram serviços de hospedagem de sites, servidores de chat e fóruns de discussão. Essas plataformas realmente não tinham nenhum tipo de controle sobre o fluxo ou o destino do conteúdo postado – não “otimizavam” timelines, não selecionavam conteúdo de acordo com o perfil do usuário, não rastreavam as pessoas e suas preferências com algoritmos, não faziam "microtargeting" de publicidade. Era outro mundo.
Tentar argumentar que Facebook ou Twitter existem em condições comparáveis às da CompuServe, uma central de fóruns de discussão popular nos anos 1990, é como dizer que um adulto bêbado que, ao volante, atropela alguém merece a mesma leniência que uma criança de bicicleta que, sem querer, passa por cima do pé do amiguinho.
Existe o risco de o “dever de cuidado” acabar jogando as plataformas numa posição defensiva de censurar primeiro e perguntar depois? Talvez. Mas o sistema de moderação e exclusão de conteúdo previsto na lei é detalhado e prevê punição, também, por censura arbitrária. Então, há incentivos nas duas direções. De resto, é preciso acabar com essa equivalência sem pé nem cabeça que se faz entre “liberdade de expressão” e “redes sociais”. Livros, revistas, jornais, palanques, mimeógrafos, blogs e sinais de fumaça continuariam a existir mesmo se todas as plataformas sociais desaparecessem do dia para a noite.
A única coisa indiscutivelmente ruim do PL 2360 é a extensão dos privilégios da imunidade parlamentar “aos conteúdos publicados por agentes políticos em plataformas mantidas pelos provedores de redes sociais e mensageria privada” (Artigo 34, parágrafo 6º). É o velho espírito antirrepublicano desta nossa República de Bananas, onde o voto não elege servidores, mas aristocratas de opereta, dando as caras outra vez.
Carlos Orsi é jornalista, editor-chefe da Revista Questão de Ciência, autor de "O Livro dos Milagres" (Editora da Unesp), "O Livro da Astrologia" (KDP), "Negacionismo" (Editora de Cultura) e coautor de "Pura Picaretagem" (Leya), "Ciência no Cotidiano" (Editora Contexto), obra ganhadora do Prêmio Jabuti, e "Contra a Realidade" (Papirus 7 Mares)