domingo, 30 de dezembro de 2012
Santa Claus Gets a Check-Up
Como resposta a nossa última postagem, nosso colega Mário Coutinho (MD, PhD) nos enviou este vídeo que utiliza o check-up de Papai Noel como tema de propaganda da indústria do check-up. Faz exatamente o raciocínio contrário ao nosso, utiliza o apelo do esforço que Papai Noel faria no Natal para promoter o idéia do check-up cardiovascular. Como disse Mário Coutinho, "a indústria do check-up não se importa em parecer ridícula."
terça-feira, 25 de dezembro de 2012
Papai Noel precisa de check-up antes do Natal?
Na noite passada, Papai Noel trabalhou 39
horas contínuas, entregando presentes a 700.000.000 de crianças, percorrendo
uma distância de 342.510.000 Km ao redor do mundo, carregando um saco de
416.000 toneladas (assumindo que um presente médio pesa 660g) - segundo fonte recente.
Embora este velhinho tenha passado por todo este esforço,
até então não ouvimos notícia de que Papai Noel infartou e está internado na
UTI “de um hospital privado na cidade”. Talvez tudo tenha dado certo, pois
Papai Noel seja precavido e tenha feito seu check-up cardiológico no início de
dezembro, como muitos costumam fazer. Isso é o que pensaria o senso comum.
Entendam por check-up a série de exames
realizados no intuito de detectar perigosas doenças ocultas. Daquele tipo que
costumamos ver propagandas em revistas alocadas nas poltronas das principais
linhas aéras brasileiras, usualmente encartes relacionados a hospitais
paulistas.
Contrariando as expectativas, Papai Noel
afirmou em entrevista recente de que não costuma fazer este check-up antes do
Natal, o que soou como uma certa irresponsabilidade do bom velhinho.
Sendo assim,
fica a questão: Papai Noel deveria ou não deveria ter feito um check-up
cardiovascular em dezembro?
Considerando sua idade, 550 anos, é
grande a probabilidade de doença coronária oculta. Desta forma, se Papai
Noel resolvesse fazer uma pesquisa de doença coronária com testes não invasivos
(teste ergométrico, cintilografia miocárdica, ressonância de perfusão ou
tomografia de coronária) seria bem possível a detecção de aterosclerose obstrutiva. Qual seria o resultado disso?
Provavelmente o
Natal das crianças seria adiado.
Sim, porque o screening seria positivo; normalmente este resultado positivo desemboca na realização de cateterismo
cardíaco (principalmente em pacientes VIPS como Noel), cujo resultado
automaticamente leva à indicação de um procedimento, seja angioplastia coronária ou cirurgia de revascularização.
Não daria tempo, não haveria condição de
Papai Noel se recuperar para distribuir os presentes na madrugada de hoje.
Mas poderia ser
que valesse a pena adiar este Natal, para garantir o Natal dos próximos anos. Não
sejamos imediatistas, há males que bem para o bem.
Porém
este não é o caso, este mal acontece de
graça, pois não traz consigo um bem maior. Isso mesmo, o check-up
cardiovascular em um indivíduo assintomático não traz benefício, mesmo que isto
vá de encontro ao senso comum.
Sabemos que o screening da doença coronária não previne desfechos
cardiovasculares maiores. Isso está demonstrado em trabalho que
randomizou pacientes de risco cardiovascular elevado para realizar ou não
realizar screening, mostrando semelhança na incidência destes desfechos. Além disso, estamos cansados de saber (ensaios clínicos)
que angioplastia coronária não reduz infarto e não prolonga sobrevida, quando
comparada ao tratamento clínico. Portanto, Papai Noel não teria seu infarto
prevenido por um procedimento deste tipo que seria induzido por um diagnóstico de doença oculta.
Em casos de doença
coronária severa (triarterial ou tronco), evidência recente do estudo FREEDOM
nos sugere benefício da cirurgia de revascularização na redução de morte ou
infarto. Porém em pacientes com a excelente classe funcional de Papai Noel é pouco
provável uma doença coronária severa.
Neste tipo de discussão, entusiastas do excesso
de exames normalmente usam algum exemplo de certo paciente assintomático, cujo
teste não invasivo foi positivo, levando a um cateterismo que mostrou doença
triarterial grave, se beneficiando de cirurgia de revascularização. Estou
cansado de ouvir isso.
Este raciocínio mediano e equivocado desconsidera o
pensamento epidemiológico, que deve ser probabilístico, baseado em dados
coletivos. Ao pensarmos probabilisticamente, percebemos a outra face da moeda. Enquanto um paciente é beneficiado pela
solicitação de exames, outro (ou outros) sofre do overdiagnosis.
No overdiagnosis, os casos anedóticos de
benefício trazido pelo diagnóstico são anulados ou até mesmo superados pelo número
de pacientes que se prejudicam pelo diagnóstico.
Seria o caso de Papai Noel fazer algum
exame não invasivo, mostrando doença fora do alto espectro de gravidade do
estudo FREEDOM (o mais comum), levando a uma angioplastia coronária que não
prolongou sua vida, não reduziu probabilidade de infarto. Tudo isso na ausência
de sintomas, que poderiam se melhorados se estivessem presentes, mas não estão
presentes. Sem falar em complicações mais graves de procedimentos desnecessários.
Desde óbito até sequelas importantes.
Perderíamos o Natal das crianças, em
troca de nenhum benefício clínico para Papai Noel.
Esse é um equívoco comum no pensamento
médico: justificar procedimentos com base na possibilidade de benefício em
alguns pacientes, desconsiderando a possibilidade de malefício em outros. Como mencionamos
previamente, somos mais movidos por resultados positivos e nossa mente tende a
desconsiderar a possibilidade de desfechos negativos. Indicamos procedimentos
porque alguns podem se beneficiar, mesmo que um número maior possa de
prejudicar. Acontece porque fixamos em nossa memória desfechos favoráveis, nos
esquecendo de desfechos desfavoráveis.
Em 2012, percebi uma crescente preocupação
com esta questão, tendo surgido recomendações médicas voltadas para evitar o overdiagnosis. Neste ano, o US Prevention Task Force classificou como inadequada a
realização de eletrocardiograma de esforço em pacientes assintomáticos.
Seguindo essa conduta, como parte do programa Choosing Wisely, o American
College of Cardiology aponta a realização de pesquisa de isquemia em
assintomáticos como uma das cinco condutas a serem evitadas na prática
cardiológica.
Claro que este raciocínio não se aplica
apenas a cardiologia. Universalmente se faz screening
para câncer de próstata com PSA, porém neste ano esta conduta passou a ser
contra-indicada pelo US Prevention TaskForce. Não tem utilidade. Deve-se também evitar mamografia de rotina em
mulheres com menos de 50 anos, ressonância de coluna se a dor lombar tiver
menos de 6 semanas, exames de imagem (tomografia ou ressonância de crânio) em
pacientes com sincope sem sinais neurológicos. Enfim, são inúmeras as condutas médicas que caracterizam o overdiagnosis.
No filme de Tim Burton, Nightmare Before Christmas (O Estranho Mundo de Jack), Papai Noel é raptado
por Jack, um monstro do mundo do Halloween. Sem maldade e por inocência, Jack deseja substituir Papai
Noel em sua função de alegrar as crianças. No entanto, Jack é um monstro e
quando entra nas casas, não traz felicidade, mas sim horror às crianças. Isso é
o que acontece com a postura médica do excesso de diagnóstico. Há intenção de
fazer o bem, porém a visão equivocada provoca o fenômeno do overdiagnosis: diagnóstico correto, porém dispensável, com
potencial de ser deletério ao paciente.
Vivemos hoje no estranho mundo do overdiagnosis, levando os nossos pacientes ao
pesadelo de serem raptados da sua condição estável, para a criação de um
problema (falso em sua magnitude) que será resolvido por uma solução (falsa em
seu benefício).
Meus votos natalinos neste ano são de que
Papai Noel nos traga a consciência de que vivemos neste estranho mundo.
quarta-feira, 28 de novembro de 2012
A Liberdade do Conhecimento (Estudo Freedom)
De forma impactante, foi apresentado no recente congresso do American Heart Association e simultaneamente publicado no New England Journal of Medicine o ensaio clínico FREEDOM, que demonstrou cirurgia de revascularização ser um tratamento mais eficaz do que tratamento com stent farmacológico, em diabéticos com doença coronária severa (80% triarteriais, a maioria com boa função sistólica).
Do ponto de vista metodológico, este é um
estudo de resultado confiável, poder estatístico adequado, diferenças estatisticamente significantes e ausência de vieses comprometedores.
Sendo assim, não desenvolverei nesta postagem uma discussão quanto à veracidade da informação, pois a considero verdadeira.
O mais interessante neste caso é perceber
quais as implicações dos resultados deste estudo, que me parecem ir além da
mera escolha da estratégia de revascularização.
O desfecho primário do estudo foi o
combinado de morte, infarto e AVC, apenas desfechos duros (hards). Como já estamos cansados de saber que cirurgia é melhor do que
angioplastia no controle dos sintomas e prevenção de novos procedimentos de
revascularização, estes não foram escolhidos como partes integrantes dos
desfechos combinados, seria redundante.
A redução na incidência do desfecho
combinado com a cirurgia se deu a custa de redução de morte e infarto. Este resultado é muito importante, pois
este é o primeiro ensaio clínico que demonstra que revascularização miocárdica
reduz mortalidade, quando comparado ao tratamento clínico contemporâneo.
Muitos imaginam que este é um efeito
comprovado há muito tempo, porém isto não é exatamente verdade. Voltando ao passado, é
importante lembrar que os clássicos ensaios clínicos da década de 70 (CASS, VA)
não demonstraram redução de mortalidade com a cirurgia, em relação ao
tratamento clínico. Na verdade estes foram estudos negativos em suas análises primárias, sendo sugerido benefício em análise de subgrupo dos pacientes no extremo superior de
gravidade. Como sabemos, análise de subgrupo apenas gera hipótese. Por outro lado, o estudo Europeu mostrou redução de mortalidade e, anos mais
tarde, uma meta-análise de Salim Yusuf combinou estes estudos, sugerindo
melhora da sobrevida no tratamento cirúrgico. Mesmo assim, uma meta-análise que sugere benefício tem ainda 30% de probabilidade de estar incorreta, segundo publicação antiga do New England Journal of Medicine. Desta forma, podemos dizer que até então não havia evidência definitiva de que cirurgia traz benefício de mortalidade. Além disso, o tratamento clínico aplicado àquela época não possuia estatinas e era limitado em relação a terapia antitrombótica.
Desta forma, o FREEDOM é a primeira evidência contemporânea e de alto nível demostrando que a
cirurgia de revascularização tem benefício que vai além do controle de
sintomas. É o primeiro dado científico que nos induz a indicar cirurgia para um
indivíduo assintomático, caso este seja triarterial. Isso não parece novidade,
pois já é uma conduta adotada pela maioria, devido ao nosso ímpeto de heroísmo
médico não embasado em evidências. Mas esta poderia ser uma conduta mal
indicada, como muitos exemplos de tratamentos adotados na ausência de
evidências que depois se comprovam deletérios ou sem efeito nenhum.
Portanto, a partir de agora, a indicação de cirurgia em um paciente assintomático, porém triarterial tem melhor validação. Vale salientar que o benefício
apresentado foi de grande magnitude, NNT = 13 para eventos combinados, NNT = 20
para morte, NNT = 13 para infarto.
Importante lembrar que o benefício da
cirurgia foi em comparação à angioplastia. Então quando digo que a cirurgia
fica indicada para pacientes assintomáticos com DAC grave, parto da demonstração
(estudos COURAGE e BARI-2D) de que angioplastia não é inferior ao tratamento
clínico contemporâneo, mesmo em pacientes triarteriais. Sendo estes dois semelhantes,
se cirurgia é melhor que angioplastia, podemos considerar que cirurgia é melhor
que tratamento clínico também. Observem que isso é uma inferência lógica. Resta
a possibilidade (não duvido nada) de que em certos pacientes angioplastia seja
inferior a tratamento clínico.
Sempre que o tratamento clínico se mostra
semelhante à angioplastia ou o tratamento cirúrgico se mostra superior à
angioplastia, médicos intervencionistas entram com o argumento de que a
angioplastia não foi realizada com o melhor tratamento atual (tipos de stents
principalmente). Esse é o tipo de argumento que gera o fenômeno em inglês
denominado catch-22. Essa expressão significa um dilema impossível de
resolver: precisamos fazer um estudo com o mais novo tipo de tratamento, mas
estes estudos duram 5 -10 anos do início do planejamento até a publicação,
então quando o estudo terminar, o tratamento não é mais novo. Assim, nunca teremos um
estudo que prove algo ser superior à angioplastia. Boa tática para não aceitar
resultados que não queremos aceitar. Ótimo exemplo de catch-22.
Um segundo aspecto importante do FREEDOM
é que a superioridade da cirurgia é consistente em pacientes com escore Syntax
baixo, médio ou alto. Isto fica claro na análise de subgrupo, que mostra
ausência de interação (P = 0.58) entre o escore Syntax e a superioridade da
cirurgia. Ausência de interação significa ausência de modificação de efeito. Ou
seja, o escore Syntax não modifica do efeito da cirurgia, não modifica o fato
desta ser superior à angioplastia.
Este dado desfaz um erro histórico de
interpretação do estudo Syntax. A primeira publicação do Syntax não conseguiu demonstrar não inferioridade da angioplastia em relação a cirurgia. Quando foram analisados os subgrupos de acordo com o escore Syntax,
houve semelhança nos pacientes de Syntax baixo e a diferença era menor nos pacientes de Syntax intermediário. Os intervencionistas gostaram destes resultado e disseram que a cirurgia só é melhor em pacientes de Syntax alto. Esse é um erro grave: fazer prevalecer o resultado de análise de subgrupo em relação à análise geral. Subgrupo apenas gera hipótese. Mas agora sabemos, não importa o Syntax: cirurgia é melhor.
Diabéticos
A esta altura da postagem, muitos devem estar pensando porque eu estou generalizando estes achados e não me referindo apenas a pacientes diabéticos. A justificativa é o princípio da complacência na análise de aplicabilidade de uma terapia. De fato, o estudo foi feito apenas em pacientes diabéticos, com doença coronariana severa. O que mais contou para o resultado encontrado? Foi o fato dos pacientes serem em sua maioria triarteriais ou o fato de serem diabéticos? De fato, diabetes é um fator de risco para desenvolvimento de aterosclerose (terceiro em ordem importância) ou seja contribui para a existência de uma doença mais extensa. Porém, uma vez a doença aterosclerótica triarterial instalada, importa se o paciente é diabético ou não? Triarterial é triarterial. Alguns intervencionistas podem argumentar que o diabético terá mais reestenose. Aí me reporto a uma postagem recente sobre o pensamento multivariado. No mundo multivariado, diabetes é um dos fatores de menor peso importantes para a desenvolvimento de reestenose (quem achou estranho o que acabo de falar, leia postagem prévia). Na análise de aplicabilidade, devemos nos perguntar: se funciona do diabético triarterial, há alguma grande razão para nos fazer duvidar que não funciona no triarterial não diabético. Esse é o princípio da complacência, que sugere sermos menos rigorosos e estender a aplicabilidade de dados verdadeiros e relevantes (NNT = 13) para uma população além da estudada (triarteriais).
Diabéticos
A esta altura da postagem, muitos devem estar pensando porque eu estou generalizando estes achados e não me referindo apenas a pacientes diabéticos. A justificativa é o princípio da complacência na análise de aplicabilidade de uma terapia. De fato, o estudo foi feito apenas em pacientes diabéticos, com doença coronariana severa. O que mais contou para o resultado encontrado? Foi o fato dos pacientes serem em sua maioria triarteriais ou o fato de serem diabéticos? De fato, diabetes é um fator de risco para desenvolvimento de aterosclerose (terceiro em ordem importância) ou seja contribui para a existência de uma doença mais extensa. Porém, uma vez a doença aterosclerótica triarterial instalada, importa se o paciente é diabético ou não? Triarterial é triarterial. Alguns intervencionistas podem argumentar que o diabético terá mais reestenose. Aí me reporto a uma postagem recente sobre o pensamento multivariado. No mundo multivariado, diabetes é um dos fatores de menor peso importantes para a desenvolvimento de reestenose (quem achou estranho o que acabo de falar, leia postagem prévia). Na análise de aplicabilidade, devemos nos perguntar: se funciona do diabético triarterial, há alguma grande razão para nos fazer duvidar que não funciona no triarterial não diabético. Esse é o princípio da complacência, que sugere sermos menos rigorosos e estender a aplicabilidade de dados verdadeiros e relevantes (NNT = 13) para uma população além da estudada (triarteriais).
Além disso, criou-se erradamente um mito
de que o diabético é muito diferente do não diabético. Na verdade tem muito
diabético que nem diabético era antes da redução do ponto de corte da glicemia
para 125 mg/dl.
Acredito que a importância do achado deste estudo vai além dos
diabéticos. Diabetes é apenas um dos mecanismos pelo qual um indivíduo
desenvolve uma doença coronariana severa, mas uma vez essa doença desenvolvida,
todo mundo é “igual”. Um indício é que não há nenhum tratamento
cardiovascular que funcione diferente em diabéticos e não diabéticos: a
eficácia de anti-hipertensivos, estatinas, aspirina, é tudo igual.
Mas para quem ainda está cético com o que
estou falando, é só olhar os resultados do seguimento de 5 anos do estudo Syntax, que envolve pacientes com doença grave em geral, não só diabéticos. O
estudo ainda não foi publicado, mas ficou claro que em seguimento de longo
prazo, cirurgia reduz mortalidade e infarto, quando comparado a angioplastia.
Aí está a demonstração de que a coisa vai além do diabético. E isso foi
independente do escore Syntax.
FREEDOM (liberdade)
Na verdade, o estudo FREEDOM nos faz
perder (não ganhar) algumas liberdades. De um lado, perde-se a liberdade de banalizar o tratamento da
doença coronária severa com a supervalorização da angioplastia coronária, em
detrimento da cirurgia. De outro lado, perde-se a liberdade de manter o
tratamento clínico apenas em pacientes assintomáticos com doença coronária
severa, que sejam de baixo risco cirúrgico. Agora (só agora) sabemos que
cirurgia reduz mortalidade em pacientes triarteriais.
Importante salientar que nada disso justifica a pesquisa de doença coronária em pacientes assintomáticos. Isso continua inapropriado, como já comentado algumas vezes neste Blog. Em breve, abordaremos melhor este problema de overdiagnosis.
Importante salientar que nada disso justifica a pesquisa de doença coronária em pacientes assintomáticos. Isso continua inapropriado, como já comentado algumas vezes neste Blog. Em breve, abordaremos melhor este problema de overdiagnosis.
terça-feira, 20 de novembro de 2012
Terapia de Reposição Hormonal: previne eventos cardiovasculares?
Como fazer quando uma nova
evidência vai de encontro com o conhecimento vigente? Neste caso, precisamos
analisar criticamente a nova evidência, comparando-a com a evidência mais
antiga que atualmente norteia a conduta. Ou seja, o novo não é necessariamente
melhor, temos que analisar onde está a verdade.
Isso aconteceu há algumas semanas, quando foi publicado no
prestigioso British Medical Journal um estudo dinamarquês intitulado Effect of hormone replacement therapy on cardiovascular events inrecently postmenopausal women: randomised trial. Trata-se de um ensaio clínico randomizado (1.000 mulheres), demonstrando que a terapia de reposição hormonal (TRH)
traz benefício cardiovascular em mulheres menopausadas. No
grupo tratamento a incidência de eventos cardiovasculares foi 3.2% versus 6.6% no grupo controle (P =
0.015). Além disso, não houve aumento de câncer de mama, nem de eventos
tromboembólicos.
Essa informação é contrária ao
conhecimento trazido pelo WHI, grande (16.000 mulheres) ensaio clínico randomizado, publicado em 2002, o qual demonstrou que este tratamento aumenta a
incidência de eventos coronários, AVC, tromboembolismo pulmonar e câncer de
mama. Baseado nisso, se considera que não há indicação do uso desta terapia
para fins de prevenção cardiovascular. A justificativa para este tratamento é melhora da qualidade
de vida, naquelas mulheres com sintomas de menopausa.
Mas e agora?? Com este novo
ensaio clínico, devemos passar a prescrever TRH em menopausadas como estratégia
de prevenção cardiovascular? Inclusive os autores argumentam que o benefício
foi alcançado devido à introdução precoce da droga após a menopausa (timing hypothesis), diferente do WHI que
randomizou as pacientes vários anos após a menopausa. Isso mesmo, se você
introduzir na hora certa, traz benefício; se introduzir na hora errada, traz
maléfico. Até parece história de feitiçaria. Existe algum tratamento assim, que a
depender do momento do uso gera efeitos totalmente paradoxais?
Sendo assim, antes de aceitar
essa explicação causal para o resultado favorável, devemos avaliar a
possibilidade deste resultado ser causado por acaso ou viés.
Acaso
Em primeiro lugar, este estudo é
subdimensionado, tendo poder estatístico reduzido. Possui apenas 1.000
mulheres, um número muito abaixo das 16.000 necessárias no WHI para avaliar
benefício e segurança. Inclusive a descrição do tamanho amostral não especifica
a incidência esperada do desfecho, tornando impossível de avaliarmos se o cálculo de 1.000 pacientes faz sentido. Provavelmente, não. A descrição serve apenas para fazer parecer que os
autores se preocuparam com poder estatístico. E na ausência de poder estatístico,
uma diferença encontrada (mesmo estatisticamente significante) tem veracidade duvidosa.
Ou seja, a acurácia do valor de P (em estimar a probabilidade do resultado
encontrado na vigência da hipótese nula) é reduzida. Portanto, não podemos
afastar o acaso como explicação do resultado encontrado.
A este respeito, foi recentemente publicado no JAMA o trabalho Empirical Evaluation of Very Large Treatment Effectsof Medical Interventions demonstrando que estudos pequenos geram resultados mais favoráveis do que estudos grandes. Da mesma forma, estudos pequenos trazem com mais frequência resultados positivos do que estudos grandes. Percebam que estudos negativos (que não mostraram benefício) publicados em revistas de impacto sempre se tratam de grandes ensaios clínicos. Nunca vemos um pequeno ensaio clínico negativo sendo publicado em revista de grande impacto. Pequenos ensaios clínicos só são publicados quando seus resultados são positivos. Só tendo resultados positivos estes estudos conseguem ser publicadosem grandes revistas. Isto
é denominado viés de publicação. O problema é que estes pequenos estudos
positivos possuem veracidade questionável, pois para conseguirem significância
estatística um estudo pequeno necessita de uma diferença de magnitude tão
grande que se torna inverossímil. Além disso, o valor de P é a estimativa de um
dado resultado ser encontrado apesar da hipótese nula ser verdadeira. Quando o
estudo é subdimensionado esta estimativa perde precisão, o valor de P pode não
refletir a realidade.
A este respeito, foi recentemente publicado no JAMA o trabalho Empirical Evaluation of Very Large Treatment Effectsof Medical Interventions demonstrando que estudos pequenos geram resultados mais favoráveis do que estudos grandes. Da mesma forma, estudos pequenos trazem com mais frequência resultados positivos do que estudos grandes. Percebam que estudos negativos (que não mostraram benefício) publicados em revistas de impacto sempre se tratam de grandes ensaios clínicos. Nunca vemos um pequeno ensaio clínico negativo sendo publicado em revista de grande impacto. Pequenos ensaios clínicos só são publicados quando seus resultados são positivos. Só tendo resultados positivos estes estudos conseguem ser publicados
Viéses
Em segundo
lugar, devemos avaliar a possibilidade de viéses. Este é um estudo aberto,
tanto o paciente como o médico sabiam se a mulher estava utilizando a TRH. Alguns
mecanismos podem fazer com que o caráter aberto enviese os resultados. Neste
caso, viés de desempenho (performance
bias) pode ser um deles: ao saber que a mulher está em uso de TRH , esta pode
receber mais cuidados médicos, melhor controle de fatores de risco, mais
atenção quanto a eventuais eventos coronários. Isso pode reduzir o risco destas
mulheres, não pela TRH, mas pelo que esta traz em termos de cuidados
adicionais. Além disso, a aferição de eventos pode ser enviesada por uma crença
do pesquisador (não cego) no benefício da terapia. Na verdade, fico a me
perguntar o que faz um pesquisador planejar um estudo de 1000 pacientes, 10
anos de seguimento e não de dá ao trabalho de cegar o estudo com uso de
placebo.
Em terceiro
lugar, qualquer estudo de prevenção primária em cardiologia avalia eventos
relacionados diretamente a doença aterosclerótica, ou seja, infarto e AVC. Sem
uma lógica prévia, este estudo colocou insuficiência cardíaca como um dos
componentes do desfecho primário e foi este desfecho que mais contribuiu com o
resultado. Se tivesse feito como o WHI (morte ou infarto) não haveria benefício
demonstrado. Da mesma forma, se tivesse considerado morte, infarto ou AVC, a
diferença não seria estatisticamente significante.
Por todos estes motivos,
não podemos considerar este estudo verdadeiro em afirmar que a TRH previne
eventos cardiovasculares, pois o mesmo não passa na prova da análise crítica de
evidências. Este estudo de 1.000 pacientes, aberto e com definição questionável
do desfecho primário não é suficiente para modificar nossa crença do prejuízo
cardiovascular desta terapia criada a partir de um estudo de 16.000 mulheres,
cego, com definição adequada do desfecho primário.
Este é um bom exemplo de como a análise crítica de uma evidência nos ajuda a separar
trabalhos que devem modificar paradigmas daqueles que servem apenas de
provocação. Este é o valor deste artigo, apenas provocar nossa reflexão.
Visão Bayesiana
Outro aspecto
que deve ser discutido é a visão bayesiana na análise de evidências. Neste tipo
de análise, devemos considerar a probabilidade pré-estudo do tratamento ser
benéfico. Neste caso, temos o WHI mostrando que o tratamento aumenta infarto,
AVC, tromboembolismo venoso e câncer. Qual a probabilidade de iniciando o
tratamento mais cedo, este provocar redução de infarto, AVC, tromboembolismo
venoso e câncer? É pequena. Pode até ser que o prejuízo seja menor porque as mulheres são mais jovens (menos susceptíveis), mas sair de deletério
para benéfico seria algo sem precedentes. Sim, sem precedentes, pois não existe
interação paradoxal. Excluindo eventos adversos, se pensamos apenas no
princípio ativo primário, não conheço nenhum tratamento que seja bom em um
grupo de pessoas e ruim em outro grupo. Usualmente , as interações são
quantitativas e não qualitativas: é comum ver algo melhor em um grupo do que em
outro, mas inversão total do efeito, de maléfico para benéfico é algo muito
raro ou até mesmo inexistente.
Sendo então a probabilidade pré-estudo de benefício muito baixa, para mudar nosso pensamento necessitaríamos de uma evidência muito forte, e não é o que temos aqui.
Sendo então a probabilidade pré-estudo de benefício muito baixa, para mudar nosso pensamento necessitaríamos de uma evidência muito forte, e não é o que temos aqui.
Entusiasmo versus Evidência
Sei que há os
entusiastas da TRH para prevenção cardiovascular. Ser entusiastas do ponto de
vista científico tem sua validade, mas devemos ter o cuidado para que este
entusiasmo não promova uma interpretação favorável de evidências de baixa
qualidade. Temo que este artigo sirva de motivo para que se passe a recomendar
TRH como prevenção cardiovascular. Em 2008, uma absurda diretriz da Sociedade
Brasileira de Cardiologia e Sociedade do Climatério recomendou TRH com
prevenção cardiovascular, grau de indicação IIa. Agora, imagine o que “entusiastas” poderão fazer com esta nova evidência.
Sob a ótica de uma interpretação responsável e científica,
até que se prove o contrário, TRH não previne eventos cardiovasculares.
quarta-feira, 17 de outubro de 2012
Consumo de Chocolate e Conquista de Prêmios Nobel
Na semana passada Franz Messerli publicou
New England Journal of Medicine um
intrigante trabalho demonstrando que quanto maior o consumo de chocolate de uma
nação, maior o número de prêmios Nobel conquistados pela nação.
A figura acima representa esta análise.
Primeiro, vamos aproveitar para revisar como interpretar uma análise de
correlação.
Associação
1)
Este
é um gráfico de correlação, ou seja,
mostra associação linear entre duas
variáveis numéricas. A variável preditora (eixo x) é o consumo de chocolate
anual per capita. A variável de desfecho (eixo y) é o número de prêmios Nobel a
cada 10 milhões de pessoas no país.
2)
O
coeficiente de regressão (b) do consumo de chocolate foi
de 2.5, indicando que o cada 1.0 Kg de consumo per capita, a nação conquista 2.5
prêmios Nobel. Mostra o grau de influência do chocolate nos prêmios.
3)
O
coeficiente de correlação (r) foi de
0.79. Este mostra a força de associação linear, quanto mais próximo de 1, mais
forte é a associação. Neste caso, podemos interpretar como associação moderada
a forte.
4)
Se
elevarmos o r ao quadrado, obteremos o coeficiente
de determinação (R2 = 0.62), que representa o quanto das
conquistas de prêmios Nobel pode ser explicado pelo consumo de
chocolate. Neste caso, 62% dos prêmios podem ser explicados pelo consumo de
chocolate.
5)
O
valor de P desta associação foi < 0.0001, indicando que é muito pequena a
probabilidade destes achados serem devido ao acaso.
Observem que do ponto de vista
estatístico, a análise é bastante convincente. De fato, há uma verdadeira
associação linear entre chocolate per capita e prêmio Nobel a cada 10 milhões de pessoas.
Em segundo lugar, devemos nos perguntar
se esta associação ocorre porque o consumo de chocolate provoca conquistas de
prêmios Nobel.
Causalidade
Quando a análise chega neste ponto, o
pensamento deixa de ser estatístico e passa a ser baseado na lógica da
causalidade. Neste caso, devemos analisar os critérios de causalidade. Em 1965, Sir Austin
Bradford Hill,
professor Emérito de Bioestatística da Universidade de Londres publicou o
artigo “The Environment and Disease: Association or Causation?” na
revista Proceedings of the Royal Society of Medicine (58:295-30), onde ele
explica 9 critérios que devem ser analisados para avaliar se uma associação é
causal. Este se tornaram conhecidos como Critérios
de Hill. Nesta postagem citarei os 5 critérios mais importantes.
1)
Força e independência da associação: diz-se que
quanto mais forte é uma associação, mas provável esta ser causal. Uma
associação muito forte tem menos possibilidade de ser mediada por fator de
confusão. Isto porque se uma associação forte é mediada por um fator de
confusão, este fator ficará muito aparente.
Além da força da associação, esta deve ser independente de fatores de confusão.
Mas o que é
mesmo fator de confusão? É uma
terceira variável que intermedia a relação entre a exposição (chocolate) e o
desfecho (prêmios Nobel), porém essa
mediação não faz parte de uma seqüência causal, ou seja, não é o chocolate
levando a alguma coisa que por sua
vez provoca a conquista dos prêmios. Na verdade, essa variável (fator de confusão)
seria associada a chocolate e associada aos prêmios, porém essas duas associações
seriam desconectadas. Sendo assim,
de maneira artificial, o fator de confusão promoveria uma associação não causal
entre a exposição e o desfecho.
Esse pode ser o caso em questão. Pode ser que o consumo de chocolate esteja associado ao nível sócio-econômico do país. Por sua vez, o nível sócio-econômico está associado a melhor educação e investimento em pesquisa, predispondo ao ganho de prêmios Nobel. Observem que esse link não é causal, pois não é o consumo de chocolate que melhora do nível sócio-econômico, para que este promova os prêmios. Neste caso, o nível sócio-econômico pode ser o fator de confusão desta análise.
Esse pode ser o caso em questão. Pode ser que o consumo de chocolate esteja associado ao nível sócio-econômico do país. Por sua vez, o nível sócio-econômico está associado a melhor educação e investimento em pesquisa, predispondo ao ganho de prêmios Nobel. Observem que esse link não é causal, pois não é o consumo de chocolate que melhora do nível sócio-econômico, para que este promova os prêmios. Neste caso, o nível sócio-econômico pode ser o fator de confusão desta análise.
Mas como
podemos saber se a associação é ou não mediada por este fator de confusão? Precisaríamos fazer uma análise multivariada,
onde colocamos chocolate, nível sócio-econômico e prêmios Nobel no mesmo modelo
estatístico, e verificamos se a associação entre chocolate e prêmio independe
do nível sócio-econômico. Se for independente, sugere causalidade (mas não garante). Essa análise não está presente no estudo,
portanto está faltando um critério essencial para se demonstrar causalidade.
Portanto, força
de associação fala a favor de causalidade, mas não é uma condição necessária.
Já independência da associação é uma condição necessária para causalidade,
porém não suficiente. Outros critérios devem ser obedecidos.
2) Plausibilidade: além
de existir uma associação independente, deve haver uma razão lógica para que a
variável preditora esteja causando o desfecho. Por exemplo, colesterol
possui associação independente com infarto e há plausibilidade para se
acreditar que esta relação é causal. Claro, é provavelmente o acúmulo do
colesterol na parede do vaso que faz surgir a placa aterosclerótica, que será
responsável pelo infarto.
Por
outro lado, há muitas associações que carecem de lógica causal.
Acreditar
que consumir chocolate promove um aumento da função cognitiva capaz de
influenciar na produção de prêmios Nobel, com esta força de associação, é
querer demais. Portanto, não há plausibilidade biológica para tal, até porque
se isso fosse verdade chocólatras seriam evidentes gênios e podemos perceber exemplos contrários à nossa volta. Sendo assim, a conclusão do trabalho carece do segundo
critério, o de plausibilidade.
3) Temporalidade:
para que consideremos uma relação causal, o desenho do estudo deve nos garantir
que a exposição veio antes do desfecho, pois a causa deve vir antes da
conseqüência. Isso é o que ocorre em estudos de coorte prospectiva. Por
exemplo, a coorte de Framingham demonstrou que níveis elevados de colesterol medidos
no início do estudo (quando ninguém tinha tido o desfecho) se associaram à
ocorrência do desfecho infarto ao longo do seguimento de longo prazo.
Porém
isso não ocorre com nosso estudo do chocolate. As duas informações (consumo e
Nobel) foram colhidas no mesmo momento. Pode ser até que o padrão de consumo
maior de chocolate tenha surgido depois das conquistas de prêmios Nobel, se
tornando impossível que aquele seja o causador dos Nobel. Na ausência dos
critérios de temporalidade, pode existir o fenômeno de causalidade reversa: o ganho dos prêmios Nobel induzindo a uma
maior consumo de chocolate – embora isso também careça de plausibilidade.
Portanto,
este é mais um critério de causalidade que está ausente no trabalho.
4) Gradiente Dose-resposta:
quanto maior o nível do preditor, maior a intensidade do desfecho. Esta é uma
relação que se observa nesse estudo, visto que há demonstração de correlação
positiva.
5) Reversibilidade
Experimental: este é o critério que representa a validação
final de uma relação causal, e deve ser proveniente de ensaios clínicos
randomizados. Significa que ao controlar o preditor em um experimento
controlado (ensaio clínico), o desfecho reduz. Isso ocorre no caso do colesterol. Ensaios clínicos randomizados indicam que na medida em que
estatinas reduzem o colesterol, o risco de infarto diminui. Isso valida o colesterol como causador da doença coronária.
Se
acreditamos que chocolate promove aumento da função cognitiva a ponto de gerar
mais prêmios Nobels, ao reduzir o chocolate de uma nação, seus prêmios iriam
reduzir ao longo do tempo. Não é esse tipo de evidência que se faz presente
neste estudo, que é puramente observacional.
Há
casos de variáveis que não fecham o ciclo de validação como fatores de risco,
visto que seu controle não promove redução de risco. O caso mais recente é o do
HDL-colesterol baixo, cujas drogas que promovem aumento em sua concentração não
resultam em benefício clínico. É bem provável que este não seja um fator de
risco, apenas seja uma marcador de risco.
Na
recente década de 90 acreditava-se que infecção na placa aterosclerótica
agravava a doença coronária. Porém, o uso de antibióticos em ensaios clínicos não
modificou a incidência de desfechos coronários (versus placebo), fazendo cair
por terra a hipótese infecciosa.
Sendo assim, uma breve análise dos
critérios de causalidade nos sugerem que este trabalho está longe de provar uma
associação causal entre consumo de chocolate e conquistas de um prêmio Nobel.
Na verdade, o trabalho não passa de um brincadeira do autor que usou esta correlação
para chamar a atenção de que associação e causalidade não são a mesma coisa.
Uma brincadeira tão inteligente que resultou em um artigo no New England Journal of Medicine.
A Verdade
Por que o gráfico mostra que países como Noruega, Áustria, Dinamarca, Finlândia possuem um desempenho científico muito melhor do que os Estados Unidos? Tem algo errado, pois sabemos que os Estados Unidos são o país de maior produção científica do mundo. O erro está em ajustar o número de prêmios Nobel para cada 10 milhões de habitantes, pois a grande maioria destes habitantes não são cientistas e não estão contribuindo nada com isso. Os Estados Unidos são os que possuem a maior população e a maioria de qualquer população não é cientista. Como a população fica no denominador da fração, isso reduz o índice de prêmios Nobel dos Estados Unidos. O correto seria ajustar o número de prêmios para o número de cientistas do país e não para a população geral. Ao fazer errado, a medida de premiação beneficiou países pequenos da Europa, que coincidentemente consomem muito chocolate. Tudo não passa de um viés de análise de dados.
A Verdade
Por que o gráfico mostra que países como Noruega, Áustria, Dinamarca, Finlândia possuem um desempenho científico muito melhor do que os Estados Unidos? Tem algo errado, pois sabemos que os Estados Unidos são o país de maior produção científica do mundo. O erro está em ajustar o número de prêmios Nobel para cada 10 milhões de habitantes, pois a grande maioria destes habitantes não são cientistas e não estão contribuindo nada com isso. Os Estados Unidos são os que possuem a maior população e a maioria de qualquer população não é cientista. Como a população fica no denominador da fração, isso reduz o índice de prêmios Nobel dos Estados Unidos. O correto seria ajustar o número de prêmios para o número de cientistas do país e não para a população geral. Ao fazer errado, a medida de premiação beneficiou países pequenos da Europa, que coincidentemente consomem muito chocolate. Tudo não passa de um viés de análise de dados.
domingo, 30 de setembro de 2012
O que é Intervalo de Confiança?
Vemos com muita frequência o uso de intervalo de confiança nos resultados
de diferentes tipos de estudos. Por exemplo, em estudos que avaliam eficácia
terapêutica ou marcadores de risco, a descrição do risco relativo sempre é
seguida do intervalo de confiança. Em estudos de acurácia, as medidas de
sensibilidade e especificidade devem também ser seguidas do intervalo de
confiança. Em estudos descritivos, de prevalência ou incidência, estas proporções devem ter seus intervalos de confiança.
Imaginem que um ensaio clínico randomizado afirma que “o risco relativo da droga em relação ao
placebo foi 0.78 (95% IC = 0.68 – 0.88).”
O que significa isso?
Se nossos estudos avaliassem toda a
população-alvo do estudo, teríamos plena confiança
nos resultados. Porém isso não é factível na maioria dos casos, fazendo com que
estudemos amostras, ao invés da população. Ao estudar um parte da população (amostra)
podemos dar o azar (acaso) de encontrar um resultado que difere da
realidade. Por isso, devemos estimar a precisão estatística do resultado. Como fazer?
Poderíamos pensar, se não tenho certeza
de que minha amostra está correta, farei um segundo estudo para checar. Neste
segundo estudo, imaginem que o resultado do risco relativo foi 0.77, ao invés
de 0.78. Puxa vida, então como saber onde está a verdade? Bem, façamos um terceiro
estudo, cujo resultado foi 0.79. O jeito é fazer um quarto estudo, e assim
sucessivamente ... Ao completar 100 estudos nesse processo de busca do
verdadeiro risco relativo, vamos nos deparar com uma variação dos resultados destes estudos. Utilizando esta
variabilidade dos resultado, calculamos o intervalo de confiança.
O intervalo
de confiança no nível 95% (95% IC) significa que o
resultado estará dentro daquele intervalo em 95 dos 100 estudos hipoteticamente realizados, ou seja, o risco relativo estará
entre 0.68 e 0.88. O 5 estudos excluídos deste intervalo representam valores
extremos que possuem maior possibilidade de terem ocorrido por acaso. Por isso
são excluídos de um intervalo que deseja estimar onde está a verdade.
Desta forma, a leitura correta do
intervalo de confiança é: podemos afirmar
que em 95 de 100 amostras hipotéticas, o resultado estará dentro deste
intervalo.
O valor de 0.78 é uma medida central,
mais próxima da verdade, porém não há garantia de que seja exatamente isso. A
garantia é de que o risco relativo não está acima de 0.88, nem abaixo de 0.68. Observem que quanto mais estreito o
intervalo de confiança, mais precisa é a estimativa. E essa é exatamente a
definição estatística de precisão, a
capacidade de um resultado se repetir em diferentes medidas da mesma realidade.
Se a medida em questão possuir um valor
que representa a hipótese nula do trabalho, podemos usar o intervalo de
confiança para avaliar significância estatística. No caso do risco relativo (ou do hazard ratio), o valor 1 representa
ausência de diferença entre grupo tratamento versus grupo controle; ou expostos ao fator de risco versus não expostos. Portanto, se o intervalo de confiança do risco
relativo envolver o valor 1, o estudo não terá significância estatística para
rejeitar a hipótese nula. Pode conferir, isso sempre coincide com um valor de P maior do que 0.05. No caso da redução absoluta de risco, o intervalo
de confiança não deve envolver o zero para ter significância estatística.
Há situações em que o intervalo de
confiança se refere a uma medida descritiva simplesmente, não há teste de
hipótese (nem hipótese nula). Por exemplo quero descrever qual é a média do
colesterol de uma população. Encontramos uma média de 220 mg/dl e podemos usar o intervalo de confiança para
estimar a precisão dessa afirmação. Também serve para variáveis categóricas, ou
seja, intervalo de confiança de proporções, tipo: prevalência, incidência
(risco), sensibilidade, especificidade.
Mas como se calcula o intervalo de
confiança?
Claro que não precisamos fazer 100
estudos para calcular. Podemos obter este intervalo com apenas um estudo realizado,
ainda bem. Estudando apenas uma amostra e utilizando fórmulas estatísticas que
levam em consideração o tamanho amostral, a variabilidade de uma variável contínua (a redundância foi
proposital) ou a frequência do desfecho quando a variável é categórica. Essas
fórmulas nos fornecem o erro-padrão,
que é a medida de incerteza do estudo. Simplesmente, o resultado encontrado na
amostra ±
1.96 erros-padrão = intervalo de confiança.
Curiosidade: Por que 1.96? Este é o valor de Z que delimita 95% de probabilidade de acordo com a curva de distribuição normal (mas não se preocupem em entender isso).
Quando a variável é numérica, fica fácil
calcular o erro-padrão, pois este é o desvio-padrão dividido pela raiz quadrada
do tamanho amostral. Quando a variável é uma proporção, utiliza-se uma fórmula
um pouco mais complexa. Há calculadoras online (vejam aqui) que nos permitem calcular intervalo de confiança de uma proporção,
digitando apenas o numerador e o denominador da fração.
O intervalo de confiança é uma medida
pouco entendida, pois não estamos acostumados a pensar assim no cotidiano.
Precisamos permitir que este conceito penetre em nossas mentes.
Por exemplo, não existem pessoas 100% confiáveis, qualquer um mente de vez em
quando. É só assistir ao filme de Liar Liar (1997, com Jim Carrey), que perceberemos o
quanto caótica seria a vida sem pequenas mentiras. Por outro lado, mesmo reconhecendo que alguém mente, podemos identificar que esta pessoa tem
um intervalo de confiança que nos deixa tranqüilos em saber que não seremos
traídos por ela em assuntos relevantes. Ao invés de tratar pessoas de forma dicotômica (honestos ou desonestos), podemos classificá-las de acordo com a amplitude de seu
intervalo de confiança.
No julgamento do Mensalão,
há réus com intervalos de confiança extremamente amplos, chegando
próximo ao infinito. O que me parece é que quanto mais amplo o intervalo de
confiança, mas cara de pau a pessoa é. Pena que aquele com intervalo de
confiança mais amplo de todos não esteja oficialmente como réu do Mensalão.
domingo, 23 de setembro de 2012
Pensamento Relativo versus Pensamento Absoluto
Recentemente publicada no British Medical Journal uma interessante descrição da frequência do uso de medidas de associação
relativas versus absolutas em artigos
científicos. Naquele trabalho, foi estudada uma amostra de 334 artigos publicados durante o ano
de 2009 nas principais revistas de impacto, de escopo médico (NEJM e Lancet) ou epidemiológico. Em 75%
dos artigos apenas medidas relativas foram descritas, em 18% apenas medidas
absolutas e em 7% ambas.
A partir daí, devemos refletir sobre o
porquê da predileção pelo relativo, se isso é bom ou ruim. Neste contexto,
faremos uma revisão destas medidas de associação, apontando vantagens e desvantagens do uso do
relativo e absoluto.
No cotidiano, as pessoas tendem a
valorizar mais o relativo do que o absoluto, como se o relativo representasse
uma forma “maior” de pensar. O termo “isso é relativo” é muito usado no intuito
de propor um pensamento mais avançado a respeito de uma dada questão; “vamos
relativizar” indica uma percepção de que as coisas devem ser analisadas de
acordo com seu contexto. É como se o pensamento relativo fosse a palavra final
ou uma palavra mais equilibrada no julgamento das coisas.
Por outro lado, no raciocínio médico
baseado em evidências, o absoluto é mais valorizado quando julgamos a magnitude
do benefício de uma conduta ou a magnitude do dano causado por um fator de
risco. Em várias postagens deste Blog, enfatizamos a importância da redução absoluta de risco como a medida
mais adequada na análise de relevância de um tratamento.
Inclusive esta é usada para calcular o NNT. Já as medidas relativas
podem gerar falsa impressão, uma impressão mais favorável ao tratamento do que
é a realidade.
Mas antes de avançar nesta discussão, vamos revisar estes
conceitos.
O risco
relativo (RR) é calculado pela razão entre o risco do tratamento / risco do
controle, por exemplo, risco da droga / risco da placebo. RR < 1 indica efeito protetor do tratamento, pois o risco deste
(numerador) é menor do que o risco do controle (denominador). Um RR > 1 indica
efeito deletério do tratamento, sendo também usado para avaliação de fatores de
risco. Por exemplo, risco de câncer dos expostos a tabagismo / risco dos não
expostos é maior do que 1, indicando dano.
Em um ensaio clínico, se o grupo droga apresenta mortalidade de 3%
e o grupo placebo de 10%, o RR (3/10) será 0.30. A partir do RR, podemos calcular a redução relativa do risco (RRR) pela
fórmula 1 – RR. Ou seja, 1 – 0.30 = 0.70, que significa 70% de redução relativa de risco. Essa é a
mensuração do benefício relativo.
Já a redução absoluta do risco é a
simples subtração do risco no grupo controle pelo risco no grupo de tratamento
ativo. No exemplo acima, 10% - 3%, indica 7% de redução absoluta de risco.
Observem que numericamente o relativo (70%) impressiona mais do que o absoluto (7%).
Quando falamos de fatores de risco, essa
medida seria o aumento absoluto do risco, calculado pela subtração do risco nos
expostos ao fator pelo risco nos não expostos.
De acordo dados citados no
Jornal Nacional, empresas aéreas brasileiras são fatores de risco para
acidentes de avião, quando comparadas a empresas americanas. Dividindo a
probabilidade de acidente no Brasil pela probabilidade nos Estados Unidos,
chegamos a 6.8 de risco relativo no Brasil em relação aos Estados Unidos, um
aumento relativo de 5.8, ou seja, 580%. Viajar de avião na TAM (por
exemplo) aumenta em 580% o risco quando comparado à American Airlines. Isso poderia dar uma boa propaganda para a AA. Mas quando
olhamos o aumento absoluto do risco, verificamos que este é ínfimo. Na verdade,
o risco absoluto de acidente nos Estados Unidos é muito baixo (0.26 acidentes
por 1 milhão de vôos). Mesmo que a gente multiplique isso por 6.8 (risco
relativo), o Brasil continua com um risco absoluto muito baixo, equivalente a
apenas 1.76 acidentes/1 milhão do vôos. Ou seja, em termos absolutos a mudança
é mínima, embora pareça uma grande mudança se falarmos em 580% de aumento. Viajar pela TAM incrementa apenas 1.5 acidentes a cada 1 milhão de vôos.
Parêntese: usei TAM e a AA apenas como exemplo do Brasil e Estados Unidos, para o texto ficar mais atraente. Eu poderia ter falado em Gol e Delta. TAM, por favor não tire minhas milhas.
A indústria farmacêutica sempre faz isso.
Ao mostrar o efeito benéfico de uma droga, prefere usar risco relativo, dando
uma boa impressão. Uma vez vi uma propaganda em que o benefício era descrito em
redução relativa de risco, mas o malefício da droga (efeito adverso) era
descrito em redução absoluta de risco.
A indústria faz os médicos de idiotas a
todo momento com manipulações deste tipo. Primeiro, dão uns presentinhos aos
médicos (de almoço em congressos a passagens aéreas), tornando-os susceptíveis
a ouvir baboseiras. Com um
presentinho no bolso (ou uma caixinha de lanche no colo) e uma quase proposital
ignorância em relação a simples medidas de risco, os médicos passam a acreditar
em contos de fada, aceitando argumentos baseados apenas no relativo. De fato, o
mundo é relativo, a depender do nosso interesse, acreditamos mais ou menos nas
coisas.
Mas não é só a indústria que prefere as
medidas relativas. Os autores as preferem também, tal como
evidenciado pelo artigo do British Medical Journal, onde 75% dos artigos não descrevem o
absoluto, apenas o relativo. Independente do autor ter ou não vinculo com a
indústria, o texto fica mais atraente ao usar o relativo. O estudo COMMIT mostrou que Clopidogrel reduz desfechos
cardiovasculares em pacientes com infarto. A redução relativa do risco foi de
9%, enquanto a redução absoluta do risco foi de 1%. Qual você usaria no resumo
do artigo? Imaginem a frase, Clopidogrel reduz em 1% o risco de eventos
cardiovasculares. Mas a realidade é essa, ou seja, o NNT é de 100.
Até este ponto, reforçamos a crítica relativo, relembrando que a verdadeira relevância está no absoluto. O que precisamos discutir agora é o valor do risco relativo e da redução relativa de risco.
Se criticamos as medidas relativas, por que elas existem, onde está sua utilidade? Na verdade, elas são muito úteis também.
O efeito intrínseco de uma terapia (ou fator de risco) está no relativo e não no
absoluto. Isto porque a redução absoluta do risco não depende apenas da
terapia, mas também do risco basal do paciente. Esta medida, assim como o NNT, varia de paciente para paciente. Para uma mesma terapia,
pacientes de alto risco apresentam um NNT melhor (menor), enquanto pacientes de
baixo risco apresentam um NNT pior (maior).
Já o efeito relativo do tratamento não é influenciado pelo risco basal do paciente.
Aí está o valor de saber a redução
relativa do risco, pois aplicando esta medida ao risco basal do paciente,
saberemos qual o NNT específico daquele tipo de paciente. Por exemplo, sabemos
que anticoagulação na fibrilação atrial promove uma redução relativa do risco
de AVC de 60% (resultado de ensaios clínicos). Imaginem um paciente cujas características
clínicas indiquem 12% de probabilidade
anual de AVC de acordo com o escore CHADS. Assim, 60% x 12% = 7% de redução absoluta. Isso dá um NNT de 14.
Por outro lado, se for um paciente com risco basal de apenas 3%, multiplicando 60% x 3% teremos 1.8% de redução absoluta de risco, com NNT de 56. Percebam como muda a redução absoluta de risco, de um benefício de grande magnitude para um de pequena magnitude.
Sabendo então o real benefício absoluto que paciente vai receber com a terapia, podemos tomar melhor decisões de risco/benefício ou custo/benefício. Aí entra o julgamento clínico na decisão, tal como descrito em postagem anterior.
Quando analisamos a relevância de uma
terapia em um ensaio clínico, devemos saber que aquele NNT calculado se refere
à média dos diferentes pacientes avaliados no trabalho. Seria um NNT médio. Mas
devemos ter em mente que nos extremos este NNT tende a ser melhor ou pior. Em postagem prévia, concluímos que o Ticagrelor não é nenhuma panacéia, pois o
NNT do estudo Plato (para eventos combinados) é de 52.
Desta forma, se esta droga tiver que ser usada, que seja feita apenas
nos pacientes de alto risco de acordo com o Escore GRACE, pois neste caso o NNT
seria otimizado.
Isto é o que podemos chamar de árvore de decisão clínica, a qual deve
ser feita nesta sequência:
1) Calculamos o risco absoluto do
paciente, baseado nas estimativas de modelos probabilísticos validados (escores
de risco).
2) Identificamos com base em
evidências científicas de qualidade qual a redução relativa do risco com o
tratamento.
3) Aplicamos (multiplicação) esta redução relativa ao risco absoluto, encontrando a redução absoluta
do risco naquele paciente.
4) Calculamos o NNT (100/RAR).
5) No caso de haver um lado ruim
da terapia, devemos fazer o mesmo procedimento acima. Ou seja, começamos
calculando o risco basal do efeito adverso.
6) Aplicamos o aumento relativo
do risco de efeito adverso com a terapia a este risco basal, encontrando o
aumento absoluto do risco e o NNT para dano, que também é chamado de NNH (number needed to harm).
7) Depois comparamos o NNT com o
NNH e decidimos se naquele paciente específico o benefício supera o risco. Isso
pode variar de paciente a paciente.
Desta forma, fica claro a utilidade do
relativo. O relativo é a propriedade intrínseca da droga. Esta propriedade
usualmente é constante em diferentes tipos de paciente, tal com pode ser
demonstrado por análises de subgrupo que indicam consistência do efeito de um
tratamento benéfico.
A redução relativa do risco está para a
acurácia (sensibilidade e especificidade) de um exame, assim como a redução
absoluta do risco está para o valor preditivo do resultado deste exame. Lembram
que o valor preditivo do método depende não só do resultado do exame, como
também na probabilidade pré-teste. Da mesma forma, a redução absoluta do risco
depende não só do efeito do tratamento (redução relativa), mas também do risco
basal do paciente (pré-tratamento).
Muito interessante como o relativo
interage com o absoluto em prol de um pensamento médico mais aprimorado,
individualizando as características do paciente para uma decisão mais
acertada. Quem disse que medicina baseada
em evidência não individualiza o paciente? Existem ferramentas que
proporcionam nossa capacidade de sair da leitura do artigo científicos e
aplicar o conhecimento de forma diferente em pacientes diferentes. Foi o que fizemos nesta postagem.
Portanto, ambos tem seu valor, o relativo
e o absoluto se complementam. E se os autores apenas reportarem o relativo ou o
absoluto (como fazem 83% dos artigos), é fácil calcular o outro, não precisa
ser gênio. Apenas se acostumar a pensar de forma científica e ordenada.
Parece pouco intuitivo, pois estamos acostumados a pensar que o relativo conota variação de acordo com a situação. Mas é a aplicação do relativo como uma constante que nos mostra a variação do absoluto a depender de cada situação. Como Einstein diria, E = M x C2 é a mesma para cada situação, o que muda é a massa da matéria, tal como muda o risco basal do paciente. A massa na física corresponde ao risco do paciente calculado com base nos escores. É a "massa do risco".
Assinar:
Postagens (Atom)