A busca desenfreada por medicamentos que possam tratar precocemente a COVID-19 tem levado a protocolos de tratamentos irracionais desde o início da pandemia. Ao assumir como eficazes fármacos cuja probabilidade a priori de funcionar beira o zero, invertemos o ônus da prova.
Uma vez que decidimos arbitrariamente que vermífugos e afins podem funcionar contra o SARS-CoV-2, há uma corrida por tentar usar o método científico (ou um simulacro) para provar, a qualquer custo, essa suposta eficácia. Deturpamos o pensamento científico desde o início, e agora nos deparamos com diversos artigos que espremem os resultados até que algo positivo possa ser afirmado.
O novo artigo “Early treatment with nitazoxanide prevents worsening of mild and moderate COVID-19 and subsequent hospitalization”, ainda em pré-print, é um exemplo de como estamos tentando torcer o que dizem as evidências para encaixá-las em uma hipótese ruim de que não somos capazes de abrir mão. Bastou este artigo aparecer na plataforma medRxiv (dia 20 de abril) para que houvesse uma enxurrada de comentários extasiados, quando não agressivos, de entusiastas do tratamento precoce (como toda pessoa que tem seu viés de confirmação alimentado costuma se sentir) apontando este estudo como evidência confirmatória da eficácia da nitazoxanida.
Só consigo lamentar o fato de que as pessoas certamente não estão lendo o estudo (muito menos interpretando-o) com atenção, mas apenas reproduzindo a conclusão otimista de seus autores. Isso não é novidade para esta droga (ou para os fármacos que costumam compor o “Kit-Covid”). Em outubro do ano passado, as falhas metodológicas e de interpretação do estudo brasileiro anterior sobre a nitazoxanida foram exaustivamente apontadas e explicadas por esta revista. bem como por este autor.
Colocando de lado o fato de que o artigo ainda está em pré-print (não passou por revisão de pares) e a baixíssima probabilidade, a priori, de um vermífugo poder atuar com eficácia em uma infecção viral (pré-condições que, por si sós, seriam motivos para sequer levar o artigo em consideração), vamos analisar com cuidado as principais questões referentes aos resultados apresentados.
Análise por "intenção de publicar"
Algo que precisa ficar claro é que, embora cientistas sejam unânimes em exigir ensaios clínicos randomizados duplo-cegos para que possa haver inferência de causalidade, ou seja, afirmar que o benefício obtido, se houver, foi mesmo causado pelo tratamento, é importante saber que este é apenas o primeiro passo para um bom resultado. Isso, por si só, não garante um artigo de qualidade.
Para lembrar: esses estudos pressupõem dividir os pacientes em pelo menos dois grupos, que sejam os mais homogêneos possíveis, e aplicar o tratamento a um deles e um placebo – uma substância inerte, mas idêntica ao medicamento – a outro, de modo que nem os pacientes, nem quem distribui os tratamentos ou quem analisa os dados, saiba quem está recebendo o quê.
É preciso dizer que metodologicamente, alguns pontos falhos do estudo brasileiro original sobre nitazoxanida tentaram ser corrigidos no novo estudo, como, por exemplo, a administração concomitante de um complexo vitamínico de vitamina B para todos os participantes, independentemente do grupo, placebo ou tratamento, de modo a disfarçar a cromatúria (alteração na cor da urina) que poderia ser provocada pelo fármaco, arruinando o mascaramento (ou cegamento) do experimento.
Contudo, talvez os maiores problemas no presente estudo residam na análise dos dados. Em primeiro lugar, os dados foram analisados por uma Análise por Intenção de Tratar modificada (mITT).
A forma mais justa e com menor risco de vieses de se analisar dados de ensaios clínicos é chamada de “Análise por Intenção de Tratar” (ITT). Isso significa que devemos manter a máxima once randomized, always analyzed (uma vez randomizado, sempre analisado). Na prática, devemos analisar os dados de cada indivíduo de acordo com a intenção original de tratá-lo, independentemente de se, no meio do caminho, participantes abandonarem o tratamento, mudarem de grupo, etc.
A princípio, pode parecer mais justo excluir um paciente que não confirmou laboratorialmente a infecção por COVID-19 (como fez o artigo), mas o fato é que, diante da possibilidade de falsos negativos e do processo de randomização, excluir pacientes da análise é uma forma de enviesar os resultados. A grande vantagem da randomização é justamente a de aleatorizar, por sorteio, todo tipo de características entre os grupos. Incluir na análise todos que foram randomizados, ainda que tenham “problemas no percurso”, é a melhor forma de interpretar os resultados.
A análise por ITT gera erros? Sim, mas não de forma tendenciosa, pois os erros acontecem em ambos os grupos. Se excluímos ou realocamos pacientes após o sorteio, corremos o risco de interferir no processo de randomização e, isso sim, pode enviesar o estudo.
Quando há essa modificação na forma de analisar os resultados, eliminando determinados pacientes, chamamos isso de análise por protocolo (PP). Como sabemos que a análise por protocolo é uma análise com maior risco de viés, os autores preferiram usar um eufemismo, já que fizeram um ajuste “leve” e aparentemente coerente de quem analisar. Por isso utilizaram o termo Análise por Intenção de Tratar modificada (mITT). Porém, embora haja alguma plausibilidade para isso, a mITT continua sendo uma análise irregular e arbitrária, o que aumenta o risco de manipulação dos resultados e de vieses.
Análise de subgrupo
Na análise de resultados de ensaios clínicos, é muito comum incorrermos em erros de aferição de desfecho. “Desfecho” é o nome dado ao critério que vamos usar para separar os casos de sucesso dos de fracasso do tratamento. Em primeiro lugar, desfechos mais objetivos (também chamados de desfechos “duros”, por serem óbvios e incontestáveis: morte, por exemplo) são preferíveis para uma análise menos enviesada. Afinal, não tem como nem paciente, nem médico, ficarem em dúvida se um óbito aconteceu de fato.
Já no estudo em questão, o desfecho primário selecionado foi o tempo de resposta sustentado após a primeira dose (TSR), considerado, no caso, como o momento em que o paciente atingiu: 1) redução em um escore que foi adaptado de um questionário usado para influenza (gripe); 2) a declaração do paciente que os sintomas “estavam melhores do que ontem”; 3) temperatura abaixo de 38 graus (100,4º F) nas últimas 24 horas; ou 4) o não aumento do escore durante o estudo. Chama atenção aqui o uso de um escore adaptado de outra doença e que não foi validado para COVID-19. Dessa forma, trata-se de um desfecho muito mais subjetivo e com maior risco de viés.
O resultado do desfecho primário é simples e claro: “Treatment with nitazoxanide was not associated with reduction of TSR” (O tratamento com nitazoxanida não foi associado com a redução no TSR). Ponto. Essa seria a conclusão mais honesta a se extrair do artigo, juntamente com o relato de suas limitações.
Porém, infelizmente, é comum em estudos com resultados negativos, como este, que os autores analisem subgrupos (isto é, recortes específicos dentro dos grupos de voluntários) ou outros desfechos, chamados “secundários”, até conseguirem encontrar um resultado positivo ou mais interessante para, ao menos, tentar afirmar que seu estudo foi capaz de gerar uma hipótese que requer confirmação por um estudo maior.
Contudo, é preciso considerar que análises de subgrupos ou desfechos secundários em estudos negativos é uma forma de mentir para si mesmo. O próprio fato de o estudo ser negativo para o resultado principal reduz a probabilidade de ser verdadeiro qualquer resultado positivo que apareça em análises de subgrupo. O que quero dizer aqui é que o resultado geral do estudo influencia fortemente o resultado de análises secundárias, que deveriam estar sempre hierarquicamente subordinadas ao resultado principal, que é aquele para o qual o estudo foi planejado.
Chama ainda mais atenção neste artigo o fato de que essas análises secundárias (que geraram os “incríveis” valores relativos de 85% de redução de severidade) sequer atingiram a significância estatística (p = 0,07). Além disso, os próprios autores colocaram no texto que se trata de um valor não corrigido para múltiplas análises.
E o que isso significa? Ao fazermos diversas análises (para tentar caçar algum resultado positivo), começamos a aumentar a probabilidade de incorrermos no chamado Erro Tipo I, que significa rejeitar a hipótese nula quando ela deveria ser mantida – ou seja, detectar um efeito que na verdade não existe, e que vai aparecer na análise por mero acaso.
Geralmente, em pesquisa de tratamentos de saúde, a cada análise que fazemos, aceitamos uma probabilidade de 5% de incorrer neste erro. Isso se reflete no chamado limiar de significância estatística, o “valor-p”. Para um resultado ser considerado significativo, é preciso que esse valor, calculado por meio de um teste estatístico, seja menor do que 5% (ou, do modo como o critério costuma aparecer na literatura científica, “p < 0,05”).
Quanto mais submetemos uma mesma base de dados a análises, maior a probabilidade de erro: é como se cada análise fosse um sorteio onde temos uma chance de 5% de “ganhar” um resultado falso. Na prática, aumentamos a probabilidade de afirmar que existe uma associação entre tratamento e benefício quando isso não é verdade.
Para contornar isso, são necessários ajustes estatísticos, o que acaba exigindo valores de p muito inferiores a 0,05 para se considerar um resultado positivo. Com um valor de p = 0,07, e não corrigido, há uma grande probabilidade de rejeitarmos a hipótese nula (de dizer que nitaxozanida funciona para os desfechos propostos, quando na verdade não existe essa associação). Problema semelhante já havia acontecido no estudo brasileiro sobre o fármaco.
Por fim, o próprio artigo conclui que os resultados devem ser confirmados por um ensaio clínico maior (que tenha de fato o poder estatístico para fazer tais afirmações). Porém, dada a baixíssima probabilidade a priori da hipótese testada, e os consecutivos estudos negativos (disfarçados de positivos) com este fármaco, me parece uma ideia melhor investir esforços e dinheiro em ações que sabemos que de fato podem trazer benefícios durante a pandemia.
André Bacchi é professor de Farmacologia do Curso de Medicina da Universidade Federal de Rondonópolis. É divulgador científico por meio dos podcasts Synapsando, Scicast, Spin de Notícias e Scikids