Nota
Este texto é uma adaptação comentada em português baseada no artigo original em inglês publicado no site da Drug Science, assinado por Hannah Barnett, disponível em https://www.drugscience.org.uk/reverse-spin-bias
A discussão parte de um problema conhecido na comunicação científica: nem sempre a forma como os resultados são “contados” ao leitor reflete, com fidelidade, aquilo que os dados mostram. Há anos se fala em spin bias, quando autores apresentam resultados fracos como se fossem promissores, ou exageram conclusões a partir de evidências incertas. O que Hannah Barnett destaca no artigo da Drug Science é um movimento inverso que começa a ser descrito com mais clareza: o reverse spin bias, uma espécie de viés narrativo no qual revisões sistemáticas reconhecem benefícios nos resultados, mas evitam recomendá-los nas conclusões, ou até chegam a desencorajá-los.
A matéria da Drug Science se apoia em um artigo científico específico que formaliza essa observação e dá nome ao fenômeno: O’Leary R, La Rosa GRM, Polosa R. Reverse spin bias: preliminary observations of reporting bias in medical systematic reviews. Res Integr Peer Rev. 2026 Jan 9;11(1):1. doi: 10.1186/s41073-025-00185-9. PMID: 41508049. Esse estudo descreve o padrão e propõe mecanismos narrativos que podem estar por trás dele, especialmente em temas sensíveis, controversos ou carregados de estigma social.
O ponto é simples, mas com implicações enormes. Revisões sistemáticas são, em tese, a forma mais robusta de resumir o “estado da arte” sobre um tema. Elas reúnem estudos, aplicam critérios de qualidade, fazem síntese e, muitas vezes, influenciam diretamente políticas públicas, diretrizes clínicas e decisões de profissionais de saúde. Quando a revisão encontra um efeito positivo (por exemplo, uma intervenção funcionando melhor do que alternativas), seria esperado que a conclusão refletisse isso com proporcionalidade. O reverse spin bias descreve casos em que essa proporcionalidade falha: os dados apontam benefício, mas a mensagem final chega “desidratada”, hesitante, ou até contrária ao que a própria revisão reportou.
A matéria original da Drug Science traz exemplos concretos e números para demonstrar que não estamos falando de casos isolados. No recorte citado, entre 16 revisões sistemáticas sobre cigarros eletrônicos publicadas entre 2021 e 2025, 13 concluíram que os cigarros eletrônicos foram significativamente mais eficazes do que outros métodos de cessação do tabagismo. Ainda assim, apenas três equipes de revisão recomendaram seu uso; as demais ou recomendaram contra, ou simplesmente se recusaram a recomendar apesar de relatarem benefício. Em outras palavras, o leitor chega ao fim de uma revisão que encontrou vantagem estatística e, em vez de uma conclusão coerente com o resultado, recebe uma mensagem que se distancia do próprio achado.
A Drug Science também menciona que, em uma busca exploratória no PubMed sobre uso de cannabis para controle da dor, no período de 2021 a 2025, 10 de 29 revisões sistemáticas apresentaram padrão semelhante. O tema aqui não é “resolver” o debate sobre cannabis medicinal em um parágrafo, e sim chamar atenção para um mecanismo de comunicação: quando o assunto é politicamente sensível, parte da literatura parece adotar uma cautela que não aparece com a mesma força em áreas menos polêmicas. Isso pode gerar um ruído importante para o público e para formuladores de políticas: a evidência que aparece nos resultados não “chega inteira” à conclusão.
O artigo científico de O’Leary, La Rosa e Polosa, citado na matéria da Drug Science, propõe cinco mecanismos narrativos que podem levar a esse descompasso entre resultados e recomendações. O primeiro é desvalorizar a base de evidências, descrevendo o conjunto de estudos como fraco ou insuficiente mesmo quando, na soma, há sinal consistente de benefício. O segundo é descredibilizar estudos primários, destacando limitações de forma seletiva ou desproporcional, especialmente quando o resultado é favorável. O terceiro é apelar ao medo, enfatizando riscos hipotéticos, cenários futuros ou incertezas que não anulam o achado presente, mas passam a dominar a narrativa final. O quarto é rejeitar a modalidade de tratamento a priori, isto é, uma resistência prévia ao tipo de intervenção que “puxa” a conclusão para longe dos dados. O quinto é omitir achados, reduzindo sua visibilidade no texto conclusivo.
Isso importa muito para redução de riscos, que vive num ambiente em que a “regra social” pesa mais do que o dado. Intervenções que envolvem nicotina, produtos alternativos, ou qualquer coisa conectada ao imaginário do tabagismo acabam sendo avaliadas com lentes morais, não apenas científicas. E aí surge um risco: mesmo quando a evidência aponta que um produto menos nocivo pode ajudar fumantes a abandonar o cigarro, a conclusão de uma revisão pode tentar “não se comprometer” por receio de controvérsia, por pressão institucional, ou por uma cultura acadêmica que confunde neutralidade com recuo. O resultado prático é o atraso na incorporação de ferramentas potencialmente úteis para adultos fumantes, justamente os que mais precisam de alternativas viáveis.
No caso específico dos produtos alternativos para consumo de nicotina com menor risco, caso dos sachês de nicotina, cigarros eletrônicos ou tabaco aquecido, esse debate é particularmente sensível porque há duas conversas acontecendo ao mesmo tempo: uma conversa legítima sobre proteção de jovens e controle de mercado, e outra conversa sobre estratégias eficazes para reduzir doenças causadas pela combustão do tabaco em adultos. Quando a comunicação científica mistura essas duas frentes sem cuidado, ou deixa que a ansiedade social contamine a leitura dos resultados, abre-se espaço para conclusões desalinhadas: os dados mostram eficácia comparativa para cessação em adultos, mas o texto final recua como se reconhecer isso fosse “endossar” qualquer uso, em qualquer contexto, por qualquer pessoa. Uma coisa não é a outra, e a ciência deveria ajudar a separar essas dimensões com clareza, não a embaralhá-las.
O reverse spin bias, como descrito no trabalho de O’Leary, La Rosa e Polosa, não acusa automaticamente má-fé. Ele aponta um padrão que pode surgir por múltiplos motivos, inclusive por excesso de prudência. Mas prudência que distorce a mensagem também é um problema, porque altera a forma como a evidência chega ao mundo real. Em saúde pública, o custo disso pode ser alto: políticas ficam mais lentas, serviços deixam de orientar corretamente, e fumantes continuam presos ao produto mais letal do mercado (o cigarro combustível) por falta de alternativas reconhecidas com honestidade proporcional ao que os dados indicam.
A discussão, portanto, não é “torcer” por um resultado específico. É defender integridade narrativa. Se uma revisão sistemática encontra benefício, isso deve aparecer com clareza no resumo e na conclusão, com as ressalvas metodológicas necessárias, mas sem que as ressalvas virem um apagador do resultado. Se há incertezas, elas devem ser descritas, mas sem virar um pretexto para tratar benefício observado como se não existisse. E se a intervenção é controversa, mais um motivo para ser rigoroso na metodologia e equilibrado na interpretação, não o contrário.
Fonte original (em inglês): Hannah Barnett, Drug Science, Reverse Spin Bias, https://www.drugscience.org.uk/reverse-spin-bias. Referência científica mencionada na matéria: O’Leary R, La Rosa GRM, Polosa R. Reverse spin bias: preliminary observations of reporting bias in medical systematic reviews. Research Integrity and Peer Review. 2026 Jan 9;11(1):1. doi: 10.1186/s41073-025-00185-9. PMID: 41508049.

