terça-feira, 15 de abril de 2014

José Wilker: morte natural ou anomalia evitável?


O ator José Wilker morre subitamente, aos 66 anos, do que provavelmente tenha isso um infarto acompanhado de fibrilação ventricular. Um fato triste, um grande ator em plena fase produtiva. Sentiremos falta. Acompanhando o fato, surge espontaneamente a visão de que algo melhor deveria ter sido feito para prevenir sua morte, ele não deveria ter morrido. No pensamento comum, a morte de José Wilker, tão jovem (mesmo?), é uma anomalia. 

Será mesmo? O quanto este acontecimento é anormal?

Um exemplo deste tipo de pensamento foi a reportagem da Revista Istoé que se seguiu a sua morte, trazendo uma revisão das estratégias preventivas do infarto e sinalizando que provavelmente José Wilker não fez exames cardiológicos suficientemente capazes para prevenir seu desfecho fatal. 

Este tipo de colocação resulta da forma de pensamento intuitivo caracterizado pela dicotomia da causalidade. Esta forma comum de pensar toma corpo em detrimento do pensamento probabilístico, estatístico, científico.

Enquanto o pensamento probabilístico infere que uma medida de prevenção reduz em alguma magnitude a probabilidade de morte cardíaca, o pensamento dicotômico interpreta o mundo como um interruptor que a gente liga ou desliga de acordo com nossas ações. Inconscientemente, nossa mente funciona assim: se a prevenção correta fosse feita, Wilker não morreria, enquanto a culpa da morte dele está em alguma falha na forma de prevenção. É a procura de um nexo causal para todo fato marcante, a procura de um bode expiatório. Encontrar uma explicação causal para tudo nos deixa com uma falsa sensação de controle, nos traz um certo conforto cognitivo. 

Porém, se pensamos de forma menos cartesiana, entenderemos que os eventos da natureza decorrem de uma multiplicidade de causas, que interagem entre si de forma complexa. Isto torna impossível predizer quando e como um fenômeno acontecerá. Podemos apenas predizer a probabilidade do ocorrido. Em outras palavras, todo José Wilker têm um probabilidade de morte cardíaca que vai aumentando a cada ano.  E aos 66 anos, mesmo sem muitos fatores de risco, sua probabilidade fica no nível intermediário, em torno de 10% em 10 anos. Bem, ele pode, casualmente, ter caído nestes 10%, mesmo que tenha feito tudo certo. Por isso, antes de encontrar um bode expiatório, devemos refletir se o que ocorreu estava dentro do previsto, se isso não foi  um fenômeno natural. 

Uma alternativa boa para impedir casos como este seria voltar ao início do século passado, quando a média de expectativa de vida não passava de 40 anos. Naquela época era bom, pois não dava tempo de termos morte súbita cardíaca. Nem dava tempo da visão de leitura piorar ou dos dentes começarem a dar problema. Aquilo é que era vida. Agora que vivemos muito mais, temos que aprender a lidar com certos ocorridos de forma natural. Volta e meia, a despeito da evolução nas verdadeiras estratégias de prevenção (controle de fatores de risco), alguém morre subitamente. Coisa estranha ou coisa natural?

Daí entra um outro viés cognitivo típico de nossa mente não estatística. A supervalorização de fenômenos raros. Fenômenas raros devem ser interpretados como exceções, como obra do acaso, decorrente daquela probabilidade de 10% de evento coronário em período de 10 anos. O raro não deve nortear as regras. No entanto, nós supervalorizamos o raro, pois as coisas incomuns marcam mais do que o comum. O comum fica banalizado, o raro supervalorizado, mesmo que estatisticamente o comum seja muito mais importante.

E aí vem o melhor. Considerando a morte de José Wilker uma anomalia que deveria ter sido evitada, precisamos rever nossa estratégia preventiva. Daí a Revista Istoé, munida da opinião de “especialistas”, sugere que assintomáticos devem realizar exames ainda mais sensíveis, para diagnosticar doenças ocultas, uma recomendação em prol do overdiagnosis, distorção tão comentada neste blog (postagens Papai Noel e George Bush). 

José Wilker morreu de coração porque viveu até os 66 anos. Era assintomático e controlava bem seus fatores de risco, fazia o que deveria ter feito e não precisava de pesquisa de doença coronária. Porém prevenção não é impedimento total do evento indesejado. Wilker poderia não ter doença coronária obstrutiva e o que ocorreu foi uma instabilidade de placa anteriormente sem significado anatômico ou funcional (nada a fazer além do controle de fatores de risco). Ele poderia ter uma placa obstrutiva, porém sabemos que procedimentos nesta placa não reduz mortalidade (nada a fazer). Ou ele poderia ser um dos raros de assintomáticos com doença coronária de gravidade extrema, cujo procedimento de revascularização reduziria sua mortalidade. Porém, para cada caso raro deste tipo, há o prejuízo de tantos que sofrem overdiagnosis com a conduta do rastreamento excessivo da doença, gerando nestes indivíduos procedimentos desnecessários, que causam desconforto, sequelas e até morte. O overdiagnosis se define como um diagnóstico correto, porém  o potencial malefício é maior do que o potencial benefício do diagnóstico. Este é o pensamento probabilístico. 

Nossa mente não estatística trabalha com memória seletiva. Nunca esqueceremos o raro dia em que encontrarmos um caso que se beneficiou de um rastreamento. Porém, em nossa mente crente, esqueceremos do assintomático que morreu na cirurgia cardíaca ou dos muitos que fizeram exames invasivos normais ou procedimentos de revascularização desnecessários. 

Observem como nosso cognitivo nos trai pelo somatório de vários viéses: o pensamento anti-estatístico, tropismo por causalidade, supervalorização do raro e memória seletiva. Haja armadilhas mentais!

Ao ter humildade para reconhecer nossa limitação em predizer  e prevenir fenômenos de forma determinística, nos aproximamos de um raciocínio médico racional, aumentando assim a probabilidade de alcançarmos os tão falados princípios da não malefiência e da beneficência. 

quarta-feira, 5 de março de 2014

Meta-Realidade: revascularização cirúrgica é melhor do que percutânea


Depois de um feriado inundado por uma festa acéfala, na qual Lepo Lepo é a melhor música (convido-os a reler nossa portagem do carnaval de 2012, um link irônico entre axé e medicina),  precisamos colocar nosso cérebro para funcionar novamente. Sendo assim, nada melhor do que discutir uma meta-análise.

Na semana passada, foi publicado no JAMA Internal Medicine a revisão sistemática dos ensaios clínicos randomizados que compararam cirurgia de revascularização miocárdica versus intervenção coronária percutânea (“angioplastia”). A meta-análise (compilação estatística dos dados) evidenciou que a cirrugia é superior à angioplastia no que diz respeito à prevenção de morte, infarto e controle de sintomas. 

A conclusão foi clara e objetiva: “In patients with multivessel coronary disease, compared with
PCI, CABG leads to an unequivocal reduction in long-term mortality, myocardial
infarctions and repeat revascularizations.”

Nesta postagem, discutiremos a translação deste achado científico para a prática clínica. Reforçaremos o raciocínico clínico baseado em evidências, no qual partimos do conceito provado cientificamente e em seguida consideramos a individualidade do paciente no processo de decisão.

Mas antes disso, vamos aproveitar para abordar aspectos metodológicos de meta-análises. 

Meta-análise: Heterogeneidade

Usualmente, o que mais se valoriza na leitura de meta-análises é a estimativa sumária, resultante da compilação dos diferentes trabalhos. Esta estimativa é o diamante que aparece no gráfico conhecido como forest plot (veja abaixo). Porém, tão importante (ou talvez mais importate) que o diamante, é a análise de heterogeneidade.

Imaginem se fizermos um experimento que mostra um certo resultado. Podemos nos perguntar, esse resultado é verdadeiro? A melhor forma de avaliar essa veracidade seria repetir o experimento várias vezes e ver se o mesmo resultado se repete. Mas isso não ocorre, quem faz um ensaio clínico só faz uma vez e publica. O que faz uma meta-análise é simular esta repetição de experimentos, utilizando os estudos que existem na literatura. Hipoteticamente, ao realizar uma meta-análise, estamos repetindo o experimento várias vezes. E nesta repetição, avaliamos heterogeneidade entre os estudos, vendo se o resultado se repete nos diferentes experimentos. Se os experimentos se confirmam entre si, ficamos mais certos de que aquele resultado não decorreu do acaso.

Desta forma, um parâmetro importante no resultado de uma meta-análise é a medida de heterogeneidade, representada por I2, o qual indica o percentual da variação do resultado entre os estudos que ultrapassa o efeito do acaso. 

Explicando melhor, estudos diferentes nunca terão resultados idênticos, sempre haverá alguma diferença. Estas diferenças resultam de variação aleatória (acaso) + diferenças verdadeiras. Se as diferenças são só pelo acaso, elas vão até um certo ponto. Além de um certo ponto, o que há de diferença pode ser devido a discordância real entre os estudos. O I2 é o percentual da variação entre os estudos que decorre de diferenças reais, de discordâncias verdadeiras. Interessante notar é que quanto maior o tamanho amostral dos estudos, mais fácil detectar heteregeneidade, pois sendo estudos mais precisos, o efeito do acaso se reduz e eventuais diferenças tendem a ser mais reais. 

Pois bem, na meta-análise em questão I2 = 0%, ou seja, os estudos não apresentam heterogeneidade alguma quanto ao impacto dos tratamentos no desfecho. Não há discordância real entre os estudos, todas as diferenças são decorrentes do acaso. Visualmente (gráfico), dos 6 estudos, 4 estão dizendo a que cirurgia é melhor e 2 mostram resultados semelhantes entre os dois tratamentos. Porém observem que estes 2 estudos distoantes apresentam grandes intervalos de confiança (imprecisos), podendo esta discordância ser decorrente do acaso. E o I2 estima que toda a discordância decorreu do acaso. 

Assim, interpretamos que a análise da totalidade das evidências reforça o conceito de que pacientes operados apresentam menor mortalidade do que pacientes submetidos a angioplastia.

Quando há muita heterogeneidade torna-se questionável a combinação do resultado de estudos, pois considera-se que devem ter sido diferenças metodológicas ou do tipo de população representada ou do tipo de tratamento empregado que levou àquelas discordâncias entre os trabalhos. Seria como combinar coisas diferentes, que não devem ser combinadas: mixing apples and oranges. 

A esta altura vocês devem estar se perguntando o que é muita heterogeneidade. Não há um número mágico, mas se considera que idealmente o I2 deve ser < 40% para que os estudos sejam compilados. Entre 40% e 60% seria aceitável e I2 > 60% já torna a compilação problemática. 

Outra questão que devemos observar é o tipo de diferença entre os estudos, se qualitativas ou quantitativas. Na primeira, os estudos de fato discordam em relação à direção do efeito. Na segunda, os estudos podem dizer a mesma coisa (há redução de mortalidade), o que difere é o grau de redução. 

Meta-análise: Estimativa Sumária

Uma vez analisado o parâmetro de heterogeneidade, partimos para a estimativa sumária, que é a medida que resulta da compilação entre os estudos. Esta não é a simples média dos resultado dos estudos. Na verdade, é como uma média ponderada. Ou seja, quanto mais preciso é o estudo, mais peso este terá no resultado da meta-análise. Estudos maiores tendem a ter mais influência no resultado final do que estudos pequenos. Estudos com estreitos intervalos de confiança terão mais influência do que estudos menos precisos. Observem no forest plot abaixo que a estimativa pontual do resultado de cada estudo é representado por um quadrado. Vejam que este quadrado varia de tamanho, pois este tamanho significa o peso que cada estudo teve na estimativa sumária.



Compilando os dados de diferentes estudos (simula a repetição dos experimentos) teremos uma infomação científica mais precisa. Ou seja, se repetimos o experimento várias vezes, saberemos mais a respeito da questão do que na análise de apenas um experimento. Por este motivo, o intervalo de confiança da medida sumária (o diamante do gráfico) é sempre mais estreito do que o intervalo de confiança dos trabalhos individuais. Por isso é mais provável que a significância estatística seja alçancada quando temos a compilação dos resultados, pois os intervalos de confiança ficam mais estreitos.

Sobre o diamante, o comprimento dele representa o intervalo de confiança, enquanto a medida pontual (no caso, do risco relativo) é representada pelo centro do diamante

Por exemplo, no estudo FREEDOM houve redução da mortalidade com cirurgia em relação a angioplastia e isso foi motivo de uma postagem neste Blog. Mesmo sendo a diferença estatisticamente significante naquele estudo, não podemos garantir que este achado não decorreu do acaso. E quando pensamos que a análise isolada de morte foi um desfecho secundário naquele estudo, a possibilidade do acaso fica superior ao demonstrado pelo valor de P. O que a meta-análise nos traz é a repetição do experimento quanto a este resultado. Ou seja, na medida em que todos os estudos estão falando a mesma coisa (redução de mortalidade com cirurgia), ficamos mais seguros que no FREEDOM este achado representou a verdade. 

É por isso que resultados positivos em desfechos secundários são mais confiáveis em meta-análises do que em estudos primários. Na medida em que o resultado se repete nos diferentes estudos, fica menor aquele nosso receio de que o resultado positivo decorreu do acaso.

Aqui estamos na situação ideal, a compilação de dados de estudos com resultados homogêneos.  Diferente desta situação, na postagem Meta-Ilusão, criticamos uma meta-análise que compilou resultados de estudos heteronêneos. Naquele exemplo, foram vários estudos pequenos e homogêneos + um grande estudo que sozinho mostrava o Dabigatran como causador de infarto. O resultado final da meta-análise foi dirigido por este grande estudo que tinha mais peso na estimativa sumária. Ou seja, aquilo não foi exatamente uma meta-análise, mas sim a repetição do resultado de um grande estudo. Não foi uma boa situação para compilar os dados, pois havia muita heterogeneidade. 

Mas se a decisão for por compilar dados heterogêneos, deve se utilizar um método estatístico que previne excessiva influência do estudo que distoa da maioria. É o modelo randômico (random-effect), o qual reduz o peso de estudos que distoam, mesmo que estes sejam estudos maiores. No entanto, na meta-análise do Dabigatran os autores não usaram este método. Eles usaram erradamente o modelo fixo (fixed-effect), o mesmo que foi usado (corretamente) na meta-análise da presente postagem. Resumindo, quando há heterogeneidade, deve ser usado o modelo randômico e quando não há heterogeneidade, deve-se usar o modelo fixo. Assim fica explicado o uso adequado do método estatístico. 

Voltando à meta-análise do Dabigaran, quando recalculamos a estimativa sumária pelo método randômico, a associação de Dabigatran com infarto desapareceu. Na época, em co-autoria com Antônio Alberto Lopes, publicamos esse novo cálculo neste Blog e posteriormente no JAMA Internal Medicine.

Outra questão que devemos observar é que estamos aqui com uma meta-análise de grandes estudos. Isso representa um nível de evidência melhor do que meta-análises de pequenos estudos, que geralmente são realizadas antes da publicação de um grande ensaio clínico. Neste segundo caso, há uma probabilidade de 30% do resultado da meta-análise estar errada, de acordo com um artigo que comparou estes resultados com os ensaios clínicos grandes que surgiram posteriormente. Enquanto uma revisão sistemática de grandes estudos de fase III representa uma forte evidência, uma revisão sistemática de pequenos estudos deve ser vista como geradora de hipóteses. 

Por fim, a qualidade da conclusão da meta-análise depende da qualidade metodológica dos estudos individuais. No presente caso, temos uma revisão apenas de ensaios clínicos randomizados, de boa qualidade, incluindo o Syntax e o FREEDOM, ambos discutidos previamente neste Blog. 

Meta-análise: Análise de Sensibilidade

Por fim, aproveitaremos esta meta-análise para abordar um terceiro aspecto metodológico, que é a análise de sensibilidade. Essa análise avalia o quanto sensível é o resultado a certas características dos estudos. É uma análise de subgrupo, mas não subgrupo de pacientes, mas subgrupo de estudos, divididos de acordo com certas características. Vejam na tabela abaixo, que os estudos são divididos naqueles que só incluíram diabéticos ou incluíram qualquer tipo de paciente. Valor de P da heterogeneidade entre os dois grupos = 0.80, mostrando que o resultado é o mesmo em estudo de diabéticos ou em estudo que incluem diabéticos e não diabéticos. Na postagem do FREEDOM, argumentamos que o resultado a favor da cirurgia provavalmente não se limitava a diabéticos, que foram os pacientes incluídos neste estudo. Pelo princípio da complacência, o resultado seria o mesmo em um não diabético que tivesse a mesma gravidade angiográfica. Na verdade, incluir diabéticos foi apenas uma forma de selecionar pacientes graves angiograficamente. O FREEDOM ia além do FREEDOM, e essa nossa visão ficou confirmada pela análise de sensibilidade aqui presente. Além disso, os autores fizeram análise de sensibilidade em relação ao tipo de stent e mostraram que não importa, o resultado é o mesmo. 

Análise de sensibilidade é a análise de subgrupo de meta-análises. 


Desta forma, revisamos três aspectos da meta-análises: análise de heterogeneidade, estimativa sumária (diamante) e análise de sensibilidade.

Após esta breve revisão, vamos ao raciocínio clínico.

Cirurgia versus Angioplastia: A Decisão

Fato baseado em evidências: cirurgia é melhor que angioplastia na redução de mortalidade, infarto e controle de sintomas. O que isso quer dizer na prática clínica? Cirurgia será sempre a melhor escolha? Este é um bom exemplo para demonstrar que medicina baseada em evidência não é copiar a conclusão de um trabalho científico (cirurgia em todos). O processo mental deve partir do conhecimento científico (qual o melhor tratamento, o quanto este é melhor, qual o preço a ser pago pelo melhor tratamento), que será o norte de nosso raciocínio. A partir daí, vamos avaliar as particularidades do paciente e julgar se este é o paciente que devemos pagar o “preço” de um tratamento mais agressivo para desfrutar de sua superioridade. Muitas variáveis devem influenciar nessa decisão. 

Em primeiro lugar, devemos avaliar a magnitude do benefício a ser desfrutado. Para isto, precisamos partir do geral ao específico. A estimativa sumária do risco relativo da cirurgia para mortalidade é 0.73, o que implica em 27% de redução relativa do risco. Sabemos que a redução relativa obtida com tratamentos em geral tende a ser constante em diferentes tipos de pacientes. Porém, esta mesma redução relativa de 27% resultará em grande redução absoluta em um paciente de alto risco ou uma pequena redução em um paciente de baixo risco. Se a mortalidade do paciente é 20% sem cirurgia, redução de 27% equivale a 5% de redução absoluta (NNT = 20, grande impacto); mas se a mortalidade do paciente for estimada em 5%, redução de 27% equivale a  apenas 1.4% de redução (NNT = 71, pequeno impacto) - redução absoluta do risco = redução relativa x risco basal do paciente. Os trabalhos normalmente descrevem o risco relativo, pois este tende a ser constante em diferentes populações, tem boa validade externa. Mas o verdadeiro impacto na vida do paciente é a redução absoluta do risco, a qual varia com seu risco basal. Para um paciente pouco grave, o benefício deste tratamento mais agressivo é pífio, não vale a pena. Exatamente por isso que os trabalhos selecionaram pacientes mais graves, quase sempre triarteriais. Neste grupo de pacientes, o NNT da cirurgia foi 37. São nesses que a cirurgia pode valer pena. 

(Para revisão dos conceitos abordados nos parágrafos acima, sugiro as postagens "Pensamento Relativo" e "A Magia do NNT").

Neste momento entra a segunda questão. O “preço” que será pago por este benefício. Imaginem um muito idoso, estável, de alto risco cirúrgico. Este terá uma cirurgia muito sofrida, com risco de complicações e até sequelas. Mesmo que venha a reduzir sua mortalidade, deve-se avaliar se queremos pagar esse preço com um procedimento de tamanha agressividade. Sim, nem sempre queremos pagar o “preço” da redução de mortalidade. Sabem porque? Porque saber que cirurgia reduz mortalidade não é significa salvar a vida de todo paciente cirúrgico e deixar morrer todo paciente com angioplastia. Não é algo dicotômico assim. Como explicamos na postagem do NNT, precisaremos tratar com cirurgia um grande número de pacientes para que 1 deles tenha a vida salva por ter feito cirurgia ao invés de angioplastia. Se NNT da cirurgia versus angioplastia para prevenir uma morte é 37 (grande impacto), isto quer dizer que 36 de 37 pacientes não se beneficiarão desta redução de morte, mas pagarão o “preço” da cirurgia. 

Desta forma, medicina baseada em evidência não é seguir sempre o resultado de um ensaio clínico. Devemos computar o quanto a cirurgia é melhor e saber caso a caso se vale a pena pagar o “preço” da cirrugia. Em pacientes de baixo risco cirúrgico, vale a pena, mas na medida em que o risco cirúrgico vai aumentando, essa convicção pela cirurgia vai diminuindo. Nesta análise entram variáveis do risco basal, do risco cirúrgico e também as preferências, os valores de nosso paciente. É algo complexo, que mistura o pensamento lógico com o pensamento intuitivo. No final do processo o lado direito do cérebro (intuitivo) deve contribuir com o lado esquerdo (racional). É a união da arte médica com a evidência científica, cada um como sua função específica.

É comum o equívoco de que medicina baseada em evidências representa uma tirania de seguir sempre o resultado de um estudo. Daí quando o resultado vai de encontro a certos interesses (ou entusiasmos), alguns começam a combater bons estudos com argumentos pífios. Mas este é o argumento errado. O argumento certo a favor da angioplastia não é aquela balela de sempre: críticas à amostra estudada, crítica ao stent utilizado, etc. O argumento certo a favor da angioplastia (a despeito da cirurgia ser melhor) é o raciocínio que pondera a magnitude do benefício desfrutado com a cirurgia e o “preço” a ser pago por este procedimento mais agressivo. A grande vantagem da angioplastia é sua “simplicidade”. Por vezes queremos desfrutar desta vantagem. 

Por fim, devemos lembrar que para redução de morte ou infarto, angioplastia não é melhor que tratamento clínico. Portanto, na ausência de escolha pela cirurgia, o tratamento clínico torna-se uma opção bastante razoável. A presença de sintomas significativos ou instabilidade do paciente tende à escolha da intervenção percutânea, do contrário, tratamento clínico é uma boa opção.

A consistência de resultados entre diferentes trabalhos reforça o paradigma científico: é incontestável, cirurgia é melhor do que angioplastia em pacientes triarteriais. A partir disso, como médicos pensantes, devemos avaliar nosso paciente e fazer a melhor escolha, considerando suas características clínicas e suas preferências pessoais. Essa é a racionalidade da medicina baseada em evidências. 

sábado, 15 de fevereiro de 2014

O Reflexo Óculo-Isquêmico: um Exemplo de Heurística de Normalização



Na profissão médica, tomamos decisões constantemente, exigimos bastante de nossa função cognitiva. Como as decisões médicas são permeadas de incerteza (sistemas complexos), precisamos explorar a fundo as formas corretas de pensar, pois armadilhas de toda ordem podem nos fazer chegar a conclusões equivocadas.

Estes equívocos decorrem do que chamamos de heurísticas ou erros cognitivos. Estes erros existem porque nosso cérebro não é desenhado (evolutivamente) para sermos médicos ou tomarmos decisões complexas, mas sim para a sobrevivência.

Nesta postagem usarei como exemplo um dos erros cognitivos mais comuns no pensamento médico,  a heurística de normalização.

Por instinto de sobrevivência, é natural que nossa evolução tenha nos levado a querer normalizar tudo que vemos. Por exemplo, se alguém está sangrando, querer interromper o sangramento é um ato instintivo. E neste caso isto é correto.

Por outro lado, em medicina, nem tudo “anormal” deve ser normalizado. Um dos grandes exemplos é a transfusão sanguínea do paciente anêmico e criticamente enfermo, porém estável. Está demonstrado que a normalização da hemoglobina de rotina não traz benefícios clínicos, restando ao paciente desfrutar de seus potenciais malefícios. Ou a perseguição desenfreada e indiscriminada pelo ritmo sinusal em pacientes com fibrilação atrial crônica, mesmo tendo ensaios clínicos demonstrando que esta conduta não é superior ao controle da frequência cardíaca. Outro exemplo é a recente demonstração de que não há benefício da normalização da pressão arterial de pacientes com AVC isquêmico (vejam postagem a este respeito no Blog da Residência de Cardiologia do Hospital São Rafael).

Em cardiologia, um dos principais exemplos de heurística de normalização está no tratamento da doença coronariana. Primeiro, se achava (muitos ainda acham) que tudo entupido deveria ser desentupido. 

Há duas décadas, Eric Topol denominou de reflexo óculo-estenótico o hábito de desentupir tudo que está entupido. Este postura questionadora ganhou credibilidade após ensaios clínicos randomizados terem demonstrado que em pacientes estáveis angioplastia coronária não reduz eventos (inicialmente, os estudos COURAGE e BARI-2D). Sendo assim, do ponto de vista científico, se aceita que não devemos desentupir por desentupir (embora na prática muitos ainda façam isso).

Ao se comprovar que o reflexo óculo-isquêmico não tinha sentido, os entusiastas dos procedimento inventaram uma outra ideia: se há isquemia, temos que revascularizar. Essa ideia foi difundida fortemente por lobistas dos procedimentos de revascularização e dos métodos de imagem que testam isquemia. Resolvemos denominar esta conduta de reflexo óculo-isquêmico e nesta postagem vamos demonstrar cientificamente que isso nunca passou de um erro cognitivo, do tipo heurística de normalização.


Análise de Interação

A demonstração de que devemos revascularizar algo que está muito isquêmico viria de ensaios clínicos que demonstrassem interação entre isquemia moderada-severa e efeito benéfico da revascularização. Vale a pena aproveitar essa oportunidade para explicar o que significa estatisticamente este conceito de interação.

Interação pode ser interpretada como modificação de efeito. Quando duas variáveis têm interação entre si, significa que uma modifica o efeito da outra no desfecho. Neste caso, haveria interação se a presença de isquemia miocárdica modificasse o efeito da revascularização no desfecho eventos cardiovasculares. Porém, como vocês perceberão nesta revisão, não importa, com ou sem isquemia, revascularização não reduz desfechos maiores.

O tipo de infecção (bacteriana ou viral) possui interação com o benefício do antibiótico na cura de pneumonia. Se for viral, o antibiótico não vai funcionar, mas se for bacteriana, o antibiótico vai funcionar. Ou seja, ser infecção bacteriana modifica o efeito antibiótico de neutro para benéfico. Este é um exemplo de interação qualitativa, que muda o caráter do efeito da intervenção. 

Podemos ter também interação quantitativa, quando o que muda é a intensidade do efeito. Por exemplo, Neymar pode jogar excelentemente na seleção brasileira e apenas bem no Barcelona. Ou seja, jogar na seleção modifica o efeito de jogo de Neymar no sucesso do time. Modifica de um efeito moderado no Barcelona para um efeito de grande magnitude na seleção brasileira. Haveria então interação quantitativa entre o time e o jogo de Neymar ...

Usualmente, vemos testes de interação nas análises de subgrupo dos ensaios clínicos. O ensaio clínico tem um resultado geral e os autores avaliam se determinados subgrupos modificam esse resultado ou não. Se modificar, o valor de P da interação será significativo (P < 0.05). Observem que estas análises de subgrupo geralmente trazem o P for interaction.

Vamos aos estudos que testaram interação entre isquemia e beneficio da revascularização.


Estudo COURAGE

O mais citado ensaio clínico neste cenário é o COURAGE, o qual comparou de forma randomizada e por intenção de tratar a conduta inicial de intervenção coronária com stent versus controle, sendo que ambos os grupos foram submetidos a tratamento clínico otimizado. Este estudo foi negativo quanto ao seu objetivo primário, evidenciando idêntica incidência de morte ou infarto do miocárdio nos dois grupos.

Recente subestudo do COURAGE testou a interação estatística entre isquemia moderada-acentuada e o efeito da intervenção coronária. Isquemia moderada-severa foi definida como aquela presente em pelo menos três das seis paredes ventriculares (anterior, lateral, inferior, posterior, septal e apical). De acordo com esta classificação, 30% dos pacientes possuíam isquemia moderada-severa. Nesta análise, o tratamento intervencionista não beneficiou nem o grupo sem isquemia moderada-acentuada (19% versus 19% de morte/infarto, respectivamente), nem o grupo com isquemia moderada-acentauda (24% versus 21%, respectivamente). Estatisticamente, não houve interação (P = 0,65) entre a presença de isquemia e o efeito da revascularização miocárdica percutânea.

Estudo BARI-2D

O estudo BARI-2D comparou de forma randomizada a estratégia de revascularização versus não revascularização em pacientes diabéticos com tratamento clínico otimizado. A revascularização poderia ser percutânea ou cirúrgica, a depender da decisão médica. À semelhança do COURAGE, o estudo BARI-2D não demonstrou redução de desfechos maiores (morte, infarto e acidente vascular cerebral) com a estratégia de revascularização.

Recentemente, foi publicado o subestudodo BARI 2D que testou interação entre isquemia e benefício da revascularização. Neste estudo, 1.505 pacientes (64% da amostra) foram submetidos a cintilografia miocárdica. Foi calculado o percentual de miocárdio isquêmico de acordo com análise de 17 segmentos. Não houve interação entre o percentual de miocárdio isquêmico e efeito do tratamento nos eventos cardiovasculares (P = 0,44). Ou seja, independente da carga isquêmica, não há redução de desfechos maiores com a revascularização.

Estudo STICH

O estudo STICH randomizou 1.202 pacientes com miocardiopatia isquêmica e fração de ejeção do ventrículo esquerdo ≤ 35% para revascularização cirúrgica ou tratamento clínico.12 Sendo assim, o STICH testa a mesma hipótese do COURAGE e do BARI-2D, porém em uma população diferente, caracterizada por pacientes com grave disfunção sistólica do ventrículo esquerdo. Além disso, o tratamento de revascularização foi necessariamente cirúrgico, diferente dos demais trabalhos. O STICH não demonstrou redução de mortalidade com o tratamento cirúrgico, expandindo a validade externa do aprendizado proveniente do COURAGE e BARI-2D. 

Em relação à interação com isquemia miocárdica, no presente ano foi publicado um subestudo com 399 pacientes do STICH que tinham teste isquêmico realizado (eco-estresse ou cintilografia). Este trabalho demonstrou ausência de benefício da revascularização, independente da presença de isquemia (P da interação = 0,64).

Estudo FAME-II

O estudo FAME-II incluiu pacientes com lesões coronárias associadas a fractional flow reserve (FFR) < 0,80, ou seja, funcionalmente significativas. Estes pacientes foram randomizados para intervenção coronárias versus controle, sendo que todos os dois grupos receberam tratamento clínico otimizado. A incidência de morte ou infarto foi idêntica nos dois grupos, resultado semelhante ao obtido pelo COURAGE ou BARI-2D. Diferente dos ensaios clínico prévios, o FAME-II incluiu necessidade de revascularização como parte do desfecho composto primário, o que sozinho foi responsável pelo benefício obtido neste desfecho. Sendo assim, esta é mais uma evidência de que a presença de isquemia em exame complementar (FFR) não garante redução de desfechos clínicos maiores.

Recentemente foi publicado no JAMA a metaanálise “Percutaneous Coronary InterventionOutcomes in Patients With Stable Obstructive Coronary Artery Disease andMyocardial Ischemia.” Esta meta-análise incluiu estudos em que todos os pacientes tinham isquemia; ou no caso de apenas parte dos pacientes terem isquemia, os autores dos estudos passaram os dados individuais, de forma que só entraram pacientes com isquemia na meta-análise. Resultado: em uma meta-análise em que todos tinha isquemia, o efeito sumarizado da revascularização em desfechos é nulo.



Imagem de Isquemia Miocárdica: Marcador ou Fator de Risco?

O termo fator de risco denota uma variável que causa incremento no risco do paciente. Diferentemente, um marcador de risco se associa positivamente com risco, porém não é nesta variável que está a origem do risco. Não há dúvida de que isquemia miocárdica faz parte da fisiopatologia da doença coronária e serve de mediador causal de desfechos clínicos, tais como arritmia ou disfunção ventricular. No entanto, o que devemos discutir é se a detecção de isquemia em exames complementares deve ser relacionada prioritariamente ao conceito de fator ou marcador de risco.

A ideia de que isquemia miocárdica crônica deve ser tratada com procedimentos invasivos decorre do erro cognitivo de concluir causalidade a partir de uma simples associação. A presença de causalidade depende de uma série de critérios científicos, organizados por Bredford Hill. Analisaremos os três principais critérios, como forma de avaliar se isquemia é fator de risco cardiovascular: plausibilidade, associação independente e reversibilidade.

Quanto à plausibilidade, eventos coronários agudos são causados por instabilização da placa aterosclerótica. Sabe-se que isquemia miocárdica é determinada pelo grau de obstrução coronária e não do quanto vulnerável à instabilidade é a placa. Estudos angiográficos demonstram que boa parte dos infartos decorrem de placas não obstrutivas, que não causariam isquemia. Sendo assim, há uma dissociação fisiopatológica entre a presença de isquemia e risco de instabilização de placa, tornando pouco plausível que isquemia esteja diretamente associada a incidência de eventos coronários maiores. Consideremos um paciente com múltiplas placas não obstrutivas (< 50% de estenose) no leito coronário, acompanhadas de uma única placa obstrutiva (> 70% de estenose) que cause isquemia. Um eventual implante de stent nesta placa obstrutiva reduzirá a isquemia, porém o paciente continuará vulnerável ao infarto decorrente das outras placas que não causam isquemia.

Neste mês foi publicado um subestudo doCOURAGE demonstrando que a presença de isquemia na cintilografia não é preditor independente de risco após ajuste para anatomia coronária e função ventricular. A ausência de associação independente entre isquemia residual e risco cardiovascular sugere que esta relação é mediada por outras variáveis de risco que são simultaneamente associadas ao preditor e ao desfecho, ao que se chama de variáveis de confusão. Isto é mais uma sugestão de que isquemia não é o principal fator de risco da determinação do prognóstico.

Por fim, reversibilidade é o critério mais importante de causalidade. Este ocorre quando o tratamento da condição promove redução de risco do paciente. Por exemplo, tratamento do LDL-colesterol promove redução de infarto; redução de pressão arterial promove redução de acidente vascular cerebral. Sendo assim, elevação de colesterol e pressão arterial são de fato fatores de risco para eventos cardiovasculares. Por outro lado, como vimos acima, o tratamento da isquemia com procedimentos invasivos não reduz risco de infarto ou morte cardiovascular. Não é reversibilidade,  então isquemia não tem relação causal com prognóstico.

Portanto, as evidências apontam que, na predição de evento aterotrombótico coronariano,  isquemia miocárdica estável deve ser interpretada como marcador de risco e não como fator de risco a ser tratado com procedimentos de revascularização.

Percebam então que todas as evidências dizem as mesma coisa. Isquemia não determina que devemos revascularizar. Então por que as pessoas dizem "vamos fazer uma cintilografia para ver se tem isquemia e decidir se faremos angioplastia?" Isto decorre de uma combinação de conflito de interesses, heurística de normalização e confusão entre fator e marcador de risco.


Mudança para o Paradigma Clínico

Diante do exposto, o verdadeiro norteador da necessidade de revascularização deve ser o quadro clínico. Mais do que exames que comprovem isquemia, o quadro clínico representa a verdadeira avaliação funcional do paciente. Se a isquemia está interferindo negativamente no cotidiano do indivíduo, devido à presença de sintomas, a revascularização pode trazer benefício. Este benefício está comprovado pelo estudo COURAGE, que demonstrou melhor controle de sintomas quando o paciente é revascularizado.

Estatística americana mostra que apenas metade das intervenções coronárias percutâneas eletivas são classificadas como claramente apropriadas, sendo que a maioria dos casos inapropriados decorre da realização de procedimentos em pacientes assintomáticos. Isto parece ser mediado em grande parte pelo fenômeno que denominamos reflexo óculo-isquêmico. Este reflexo deve ser corrigido por uma prática médica centrada no paciente e embasada em evidências.

Ademais, em uma era na qual devemos evitar o desperdício de recursos com procedimentos fúteis, as melhores evidências disponíveis suportam a idéia de que para pacientes com isquemia crônica, menos pode ser mais (less is more). 




* Esta postagem é uma versão do Ponto de Vista in press nos Arquivos Brasileiros de Cardiologia e da Letter to the Editor in press no Circulation, sob o título The Oculo-ischemic Reflex. Ambos escritos em parceria por Luis Correia, Márcia Noya e José Augusto Barreto Filho. 

* Esta portagem teve os seguintes objetivos didáticos: alertar para armadilhas mentais sob a forma de heurística, definir o fenômeno estatístico de interação, exercitar o pensamento diferencial entre marcador e fator de risco, aguçar o senso clínico da tomada de decisão.

domingo, 19 de janeiro de 2014

Carne Vermelha Baseada em Evidências



Meu amigo José Carlos Lima é patologista clínico, responsável pelos laboratórios do Hospital Português, Instituto Cardio-pulmonar e pelo Laboratório LPC. Zé Carlos é um provocador de discussões médico-científicas, está sempre trazendo reflexões críticas sobre paradigmas vigentes. Foi nesse intuito que Zé me entrevistou sobre o consumo de carne vermelha como fator de risco para aterosclerose, a fim de publicar no seu Boletim do Laboratório LPC. Além de desmitificar esta questão, nossa discussão passou por vários conceitos metodológicos importantes. A carne aqui é um bom pretexto para discutirmos níveis de evidências baseados em estudos observacionais. Vejam a entrevista.

Qual a relação entre o consumo de carnes vermelhas e doenças do coração?

Dois grandes estudos avaliaram esta associação, o Health Professionals Study e o Nurses’ Health Study. Estes estudos foram publicados simultaneamente nos Archives of Internal Medicine em 2012, tendo mostrado associação entre a quantidade de carne vermelha consumida e certo aumento de eventos cardiovasculares. No entanto, nem toda associação significa causalidade

Devemos salientar que estes são estudos observacionais, o que significa que o protocolo não controlou o consumo de carne nos grupos a serem comparados. São estudos que apenas comparam quem consome muita carne contra quem consome pouca carne por conta própria. Estas comparações em estudos observacionais são repletas de fatores de confusão, não suficientemente resolvidos pelas complexas análises estatísticas destes trabalhos.  

O que são fatores de confusão?

De acordo com o senso comum, o consumo de carne vermelha é ruim para a saúde. Ao mesmo tempo, este tipo de carne é das mais saborosas. Sendo assim, as pessoas que consomem menos carne são aquelas que, a despeito do sabor sedutor, optam por não consumir em excesso. Em geral, estas pessoas são diferentes das pessoas que não têm a força de vontade para restringir carne. E estas diferenças podem ser as verdadeiras responsáveis pela menor incidência de desfechos cardiovasculares indesejados, como infarto ou acidente vascular cerebral. Estas diferenças são os potenciais fatores de confusão, que podem estar causando uma ilusão do malefício da carne. 

Por exemplo, em geral pessoas que têm o perfil consumidor de carne tendem a ter menos cuidado com a saúde, alimentação é mais desregrada, bebem mais, engordam com mais facilidade, procuram médicos com menos frequência, negligenciam seus medicamentos anti-hipertensivos, etc. Portanto, o consumo de carne poderia ser apenas um marcador de hábitos saudáveis e não um “causador” direto de problemas de saúde. Fica a dúvida.


Então como resolver essa dúvida?

Para isso, são necessários os ensaios clínicos randomizados, onde o consumo de carne seria determinado de acordo com o protocolo do estudo (sorteio), deixando de ser a escolha do indivíduo.  Ao ser uma determinação aleatória, o uso ou não uso de carne não se associa com outras características do indivíduo. Isto anula os efeitos de confusão. Há inúmeros exemplos de ilusões causadas pelos estudos observacionais que são desfeitas por ensaios clínicos randomizados. Um grande exemplo é o uso de vitaminas, que geralmente aparentam ser benéficas na prevenção de câncer ou infarto em estudos observacionais, porém ensaios clínicos mostra ausência de qualquer benefício. 

Há ensaios clínicos testando o benefício do consumo limitado (ou não consumo) de carne vermelha?

Não. Portanto, não podemos afirmar categoricamente que o consumo de carne vermelha deve ser restringido. Por exemplo, há estudos observacionais que mostram associação entre consumo de café e proteção cardiovascular. Porém não há ensaios clínicos. Desta forma, não podemos ficar por aí recomendando consumo de café. O mesmo acontece com consumo moderado de vinho. Não há ensaios clínicos randomizados.

Então você libera totalmente o consumo de carne vermelha para seus clientes? 

Para falar a verdade, do ponto de vista de evidências, esse não é um tópico muito relevante a ser discutido. Minha recomendação geral é que devemos ser moderados em tudo que consumimos, incluindo carne vermelha. 

Mas essa “liberalidade” não poderia aumentar o colesterol das pessoas?

Uma vez conheci um indivíduo que era filho de uma famosa baiana de acarajé em Salvador. Sua dieta era baseada em acarajé, no café, almoço e jantar. O colesterol deste jovem era absurdamente elevado. Este nível de consumo, de fato, aumenta o colesterol. Porém, tirando estes casos extremos, o que chamamos de consumo liberado em geral não chega a afetar substancialmente o colesterol, pois a maioria do colesterol é produzido de forma endógena (pelo organismo). O colesterol depende mais de nossa predisposição do que da nossa dieta.

Há ensaios clínicos randomizados para dieta restritiva em gordura versus dieta mais liberal e, pasmem, a redução de colesterol é mínima. Na melhor das hipóteses, a redução fica em torno de 5 mg/dl. 

Porém a evidência mais importante a este respeito vem de um grande ensaio clínico, o Women’s Health Initiative Dietary Modification Trialque randomizou 48.000 mulheres para intervenção com dieta (hipolipídica e rica em frutas/vegetais) versus controle. Bem, qual foi o resultado? Ausência de redução de eventos cardiovasculares em seguimento de 8 anos. Percebam como o que se fala é muitas vezes dissociado da evidência científica.

É baseado na revisão sistemática de ensaios clínicos, que o US Prevention Task Force classifica a dieta para prevenção cardiovascular como recomendação apenas Grau C (trocando em miúdos, "faça se quiser").  

Portanto, não adianta demonizarmos certas coisas, apenas para causar a ilusão de proteção em nossos clientes. Isso representa uma atitude mais de auto-promoção do que um ato médico embasado em evidências científicas.

Então, qual a mensagem final?

Temos que consumir alimentos de forma moderada e equilibrada, um pouco de tudo. Evitando os extremos, melhoramos nossa qualidade de vida e quem sabe teremos algum benefício para a saúde. Lembremos também que total liberalidade alimentar predispõe a obesidade, mais um motivo para sermos moderados. 

Fora isso, devemos aproveitar a vida.