quarta-feira, 16 de julho de 2014

O Programa de Saúde da Família no British Medical Journal



Nestes dias de baixa auto-estima para o brasileiro, nada como olhar para o que realmente importa e se deparar com algo a se orgulhar. Publicado no British Medical Journal um elegante artigo do Instituto de Saúde Coletiva da UFBA, mostrando associação entre o Programa de Saúde da Família e menor mortalidade cardiovascular no Brasil. Os autores assim concluem:

“Comprehensive and community based primary health care programmes, such as the FHP in Brazil, acting through cardiovascular disease prevention, care, and follow-up can contribute to decreased cardiovascular disease morbidity and mortality in a developing country such as Brazil.”

Estudando 30% dos municípios brasileiros, os autores demonstram 33% de redução de mortalidade (taxa de mortalidade padronizada para idade) por doenças cerebrovasculares e 45% de redução por doenças cardíacas entre os anos 2000 e 2009. Em paralelo, houve aumento de 227% da cobertura pelo Programa de Saúde da Família (PSF) nesses municípios.


Associação entre PSF e Mortalidade Cardiovascular

Embora no mesmo período tenha havido queda de mortalidade e aumento de PSF, de antemão, isto não é garantia de que foi o PSF que causou a redução de mortalidade. Duas coisas ocorrerem em paralelo não garante que uma esteja causando a outra. Por exemplo, observou-se também que houve melhoria das condições sociais neste período, com redução de 40% no número de indivíduos vivendo em condições sanitárias inadequadas e aumento de 37% da renda per capita. Será que não foi esta melhoria social que causou a redução de mortalidade?

Para testar a associação entre mortalidade e PSF, os autores compararam a mortalidade entre cidades com cobertura do PSF consolidada, intermediária, incipiente e ausência de PSF, sendo este último o grupo controle. Isto funcionou como um experimento, onde se compara o efeito de diferentes doses de PSF com um grupo controle sem PSF. Foi observado que quanto mais PSF, menor a mortalidade cardiovascular, com um padrão de relação dose-resposta, o que é sugestivo de causalidade.

Mesmo assim, podem existir fatores de confusão intermediando essa relação, pois as cidades com mais PSF poderiam ter melhores condições sociais. Para um ajuste pleno de variáveis de confusão, seria necessário um desenho que randomizasse cidades para diferentes doses de PSF,  o que faria com que as cidades com mais PSF fossem idênticas às cidades com menos PSF pelo efeito da randomização. Este desenho é denominado randomização em cluster, no sentido de que não é o indivíduo a ser randomizado, mas sim um conjunto de pessoas (cidades). No entanto, do ponto de vista político e social, isso se aproxima do impraticável. Desta forma, teremos que ficar com a evidência observacional, que compara cidades diferentes.

Sendo o dado não randomizado sujeito a fatores de confusão, os autores fizeram ajuste estatístico para variáveis relacionas ao aspecto social, como percentual da população abaixo da linha de pobreza, com condições sanitárias inadequadas, renda per capita, analfabetismo. Também ajustaram para a infra-estrutura de saúde oferecida pelo município, representado pelo número de leitos hospitalares na cidade, número de aparelhos de tomografia e ultrassom. Após ajuste para estes potenciais confundidores, permaneceu a significância estatística da associação de PSF com menor mortalidade cardiovascular!!! Agora assim, a evidência começa a sugerir que PSF e menor mortalidade possuem uma associação direta.

Embora a análise multivariada reforce a associação, devemos ter em mente que esta não é suficiente para garantir que não haja interferência de outros fatores confundidores na mortalidade. Mas considerando a plausibilidade da hipótese, me parece um nível de evidência razoável a favor do PSF. Digamos assim que o conceito teórico de que PSF predispõe a menor mortalidade é fortemente sugerido por esta evidência.


O SPF reduziu mortalidade cardiovascular no Brasil?

Observem que esta pergunta não é respondida pela evidência acima descrita. Uma coisa é demonstrar a propriedade do PSF de proteger pessoas contra mortalidade cardiovascular, outra coisa é garantir que o PSF de fato exerceu o efeito de reduzir mortalidade no Brasil. São perguntas diferentes. 

A mortalidade cardiovascular no Brasil tem caído progressivamente nas últimas décadas. Pode ser que o PSF tenha surgido em 2000 e apenas presenciou essa queda que já vinha ocorrendo, não sendo o verdadeiro responsável. 

O teste desta hipótese estaria em avaliar se a associação negativa entre mortalidade cardiovascular e tempo (queda de mortalidade com o tempo) foi modificada pela presença ou ausência do PSF. Seria uma análise de interação, avaliando o efeito modificador do PSF na associação entre mortalidade e tempo. Esta análise demonstraria que cidades com PSF apresentariam uma queda de mortalidade ao longo desses 10 anos mais importante do que cidades sem PSF. Diferente da análises apresentada, o desfecho seria a queda de mortalidade (curva) e não apenas a mortalidade em um dado período, como feito na análise que comparou as cidades com diferentes coberturas do PSF.

Melhor ainda se a análise se estendesse para antes de 2000. Neste caso, cidades seriam observadas antes e depois do PSF. Seria demonstrado um ponto de inflexão, onde a queda que já vinha ocorrendo na mortalidade ficaria mais vertiginosa após o advento do PSF. E isso não ocorreria nas cidades sem PSF. 

Estes tipos de análise não foram descritas no estudo, portanto não podemos considerar que o estudo mostra o efeito do PSF na progressiva queda de mortalidade cardiovascular no Brasil. Pode ser feita essa inferência na forma de discussão, mas não representa uma comprovação.

Por fim, devemos lembrar que apenas 30% das cidades brasileiras foram estudadas. E estas foram as cidades que ofereciam estatística suficiente para a análise. As demais não tinham os registros necessários. Isso pode ser um marcador de organização do sistema público na cidade. Ou seja, as cidades que ficaram de fora (70% do Brasil) podem ter uma realidade bem inferior às estudadas. Portanto o trabalho não é um retrato do Brasil, nem pretendeu ser. 

Este estudo testa e comprova o conceito teórico de que PSF tem propriedade de reduzir mortalidade, mas não traz as análises que comprovariam que a redução de mortalidade observada nestas cidades nos últimas 10 anos decorreu do PSF.


Atenção Primária ou PSF ?

O título do trabalho menciona "atenção primária” e não PSF. Acho que esta foi a melhor escolha, pois conhecendo as condições de assistência primária do serviço público, provavelmente este estudo está comparando ter atenção primária razoável (PSF) versus ter atenção primária precária. Se as cidades usadas como “controle" tivessem uma atenção primária razoável, o estudo estaria testando o PSF como uma forma inovadora e melhor de fazer atenção primária. Embora eu não tenha estes dados a respeito das cidades controle, acredito que não seja o caso. É possível que as cidades sem PSF  apresentem em média um sistema de atenção primária cuja precariedade se aproxima mais de um placebo.

Sendo assim, vejo este estudo como uma comprovação de que fazer atenção primária (o básico) faz grande diferença e não como uma apologia a um programa específico do Brasil.


Conclusões

Acho que a conclusão dos autores do trabalho foi bastante adequada, pois eles dizem que "adotar um programa de atenção primária pode contribuir para reduzir mortalidade cardiovascular”. O trabalho não testa, nem afirma que contribuiu. Não é um retrato fiel do que aconteceu no Brasil, é muito mais um teste da hipótese de que ter atenção primária é melhor do que não ter, do ponto de vista de saúde cardiovascular.

Interpretações que extrapolam estas conclusões devem ser evitadas: primeiro, o Brasil não descobriu a pólvora com um método especial de atenção primária; segundo, a partir desse estudo não podemos afirmar que a redução de mortalidade cardiovascular entre 2000 e 2009 decorreu do PSF.

Nessa época em que médicos falam tão mal do sistema público de saúde de nosso país, é de se orgulhar que nosso programa de atenção primária tenha seu benefício teórico demonstrado por um elegante estudo baiano e publicado na principal revista médica de um país cujo sistema de saúde pública é um padrão mundial.

Mesmo assim, devemos evitar o ufanismo. Na verdade, adotar um programa de atenção primária é o mínimo que um país deve fazer, é o básico, é a obrigação. Não sendo um mérito especial, espero que este trabalho não seja usado politicamente nesta época de eleição. Até porque o PSF foi criado por um governo e ampliado por outro. 

quarta-feira, 9 de julho de 2014

O vexame do Brasil foi estatisticamente significante ?



O estatístico americano Nate Silver criou um modelo preditor que estimou em 65% a probabilidade do Brasil ter ganhado o jogo contra a Alemanha. Foi este resultado que postei no facebook ontem, no intuito de aumentar nosso otimismo horas antes do pontapé inicial. Para criar o modelo, Nate Silver utilizou o banco de dados ELO, que possui informações de confrontos entre seleções desde o século XIX, aliado ao fato de que Brasil estava jogando em casa. Tal como discutimos na última postagem deste blog (pensamento probabilístico), não teria sido muito surpresa o Brasil perder aquele jogo, pois restava 35% de probabilidade da Alemanha sair vitoriosa. A surpresa mesmo veio do vexatório 7 x 1 sofrido pelo Brasil. E por este motivo pergunto se este absurdo resultado foi estatisticamente significante. 

O resultado final do placar sugere que a Seleção Alemã é imensamente superior à Brasileira. Mas a Alemanha é tão melhor assim que o Brasil ou este placar foi por acaso? De acordo com o modelo de Nate Silver, a Alemanha ganharia do Brasil por 6 gols de diferença em apenas 1 de 900 jogos, indicando que a probabilidade deste resultado era de 0.11% (valor de P = 0.0011). 

O que significa valor de P? Significa a probabilidade da diferença observada aparecer, caso a hipótese nula (Brasil = Alemanha) seja verdadeira. Ou seja, se os dois times fossem mais ou menos equivalentes (como mostra o histórico representado pelo modelo preditor), qual a probabilidade aleatória (azar) deste resultado extremo se fazer presente? 

Em sua entrevista ontem, Felipão deu sua versão do ocorrido, falando algo assim: “O time vinha bem, atacando, quando aos 21 minutos [na verdade foi 11 minutos] veio o primeiro gol de escanteio, causando um apagão no Brasil, permitindo que a Alemanha fizesse mais 4 gols em 10 minutos. Depois de 5 gols de diferença, fica difícil reverter o resultado." Observem que sua explicação tem uma conotação de acaso, um azar que durou 10 minutos, causando um desastre impossível de reverter. Parreira, por sua vez, disse que a taça “escapou”, usando mais uma palavra de apologia ao acaso.

Escrevo esta postagem enquanto assisto ao monótono 0 x 0 de Argentina e Holanda. Acaba de entrar um reporter da ESPN dizendo que Felipão e Parreira deram outra entrevista hoje, na qual  disseram que fariam tudo igual se tivessem uma segunda vez. Continuam sugerindo que foi tudo por acaso.

A função primordial da ciência é diferenciar acaso de causa, escolher uma entre estas duas possibilidades: azar do Brazil ou superioridade imensa da Alemanha. Vamos então ao teste de hipótese estatística: se os dois times tivessem qualidade semelhante (hipótese nula), a probabilidade deste resultado ocorrer seria tão baixa (0.11%) que acabamos por concluir que os times são diferentes. Rejeitamos a hipótese nula do acaso e ficamos com a hipótese alternativa da causa: a Alemanha é muito melhor que o Brasil. 

Estatisticamente, perder da Alemanha poderia ser aceito como azar se fosse por 1 ou 2 gols de diferença, pois esta probabilidade seria em torno de 35% (P = 0.35). O P de uma derrota normal não era estatisticamente significante (> 0.05). Neste caso sim, Felipão poderia ter atribuído sua derrota ao azar. Mas com um P = 0.011, é desafiar a inteligência do brasileiro. 

Confirmado que a relação foi causal, precisamos discutir qual foi a causa. Ao escolher sua explicação para o ocorrido, Felipão contou uma história tão inverossímil, que demonstrou sua total ignorância sobre probabilidade. Estou querendo demais de sua inteligência? Nem tanto, segundo a ESPN, os técnicos europeus dos dias atuais trabalham com estatística o tempo inteiro. Por que o técnico da Holanda val Gaal trocou os goleiros para a disputa de pênaltis? Não foi simplesmente pela altura de Krul, havia dados estatísticos de que ele pegava muito mais pênaltis. Vocês observaram que o técnico da Holanda anota tudo durante o jogo? Sem estatística não há salvação.

A ausência de inteligência estatística (ou de qualquer inteligência) por parte do técnico foi a causa do ocorrido. A verdade é que Felipão foi um técnico sem nenhuma capacidade estratégica e que pouco trabalhou. Todos viram, o Brasil não treinava, não havia nenhuma tática adaptada a cada jogo, a escalação era sempre ruim. 

Mas um resultado evidente como este precisa de uma causa mais especifica do que a minha explicação. Com a palavra, o brilhante Tostão:

"A entrada de Bernard foi uma decisão desastrosa, prepotente, porque mesmo se Neymar estivesse presente, o Brasil teria que reforçar o meio-campo, principal qualidade da Alemanha."

Tostão não é só ex-jogador de futebol e comentarista esportivo, Tostão também é médico. Um médico de inteligência diferenciada, de pensamento estatístico. Em contrate, a prática de nossa medicina às vezes se parece mais com Felipão do que Tostão. Médicos, com a "prepotência" citada por Tostão ao descrever Felipão, às vezes acreditam no que querem acreditar. Interpretamos desfechos casuais como causais quando não pensamos cientificamente. Muitas vezes, utilizamos condutas sem eficácia comprovada (ou ineficazes) e usamos exemplos de desfechos favoráveis como argumentos pró-conduta, desprezando os casos de desfecho desfavorável. Ou desprezamos informações científicas que deveriam nos nortear.  É comum violarmos a estatística em prol de uma interpretação enviesada do mundo clínico a nossa volta. 

Os técnicos da Alemanha, Holanda, Chile são técnicos baseados em evidências. Felipão e Parreira são técnicos baseados em crenças. Crenças provenientes de dogmas (Fred) ou de conflitos de interesse. 

domingo, 22 de junho de 2014

O Pensamento Probabilístico em Prognósticos Futebolísticos e Médicos



Prognosticar é prever o futuro. Prever o futuro da Seleção Brasileira na Copa do Mundo, prever o risco (futuro) de um indivíduo se tornar doente ou de um doente evoluir desfavoravelmente. Prognosticar é prever o futuro sem ter uma bola de cristal, o que faz disso um desafio repleto de incertezas. Prognosticar é fazer julgamento com base em incerteza, o que torna essencial a presença do pensamento probabilístico. 

O problema é que intuitivamente nosso pensamento não é probabilístico, temos uma tendência natural a pensar com base em uma falsa certeza. Comumente nos comportamos como se tivéssemos a bola de cristal, assumimos um pensamento simplório e dicotômico. Fazemos isso no futebol, na medicina e em várias áreas da nossa vida.

No início do século passado, William Osler, o pai da medicina interna, afirmou que “medicina é a arte da incerteza”. Quase um século depois, profissionais médicos ainda não incorporaram este conceito e insistem em fazer afirmações e tomar condutas presunçosas. Presunçosas pois presumem certeza em seu comportamento, consciente ou inconscientemente. Osler, na sua genialidade, completou sua frase, dando a solução para a incerteza médica: “medicina é a arte da incerteza e a ciência da probabilidade”. Ou seja, precisamos pensar de forma probabilística, desta forma reconhecemos a incerteza de nossas afirmações. 



O Pensamento Probabilístico

Muitas são as situações cotidianas as quais evidenciam que nosso pensamento não é naturalmente probabilístico. Um exemplo é o que esperamos de previsões meteorológicas. Estas previsões são muitas vezes ridicularizadas, injustamente. Imagine que a previsão foi um dia de chuva, mas fez um belo dia de sol. Errou? Não, pois a leitura correta não é “vai chover” (embora nos telejornais a ideia passada seja essa). Observem nos bons sites ou aplicativos que quando aparece um ícone que indica chuva na previsão, comumente o percentual numérico é de 40%, 50% ou 60%. A leitura correta é que há uma razoável probabilidade de chuva. Esta probabilidade reconhece a incerteza desta que é uma afirmação prognóstica. 

Antes de iniciar esta Copa do Mundo, o Brasil foi tido como favorito para vencer. Ao pensamos em favorito, imaginamos, vai ganhar! Isso é um pensamento dicotômico, simplório e incorreto. Na verdade, ser favorito não significa que vai ganhar. Nate Silver, famoso estatístico americano, criou um modelo multivariado para predizer o risco do Brasil ser campeão. De fato, o Brasil é o país com maior probabilidade de ser campeão, calculada em 47%, seguido da Argentina 13% e Alemanha 11%. Porém observem que, mesmo sendo favorito, é mais provável que o Brasil não seja campeão (53%). Portanto, caros colegas, se perdermos, isso não será nada de anormal. Mesmo sendo favorito e jogando no próprio país. Porém uma derrota geralmente vem com a indignação de algo que não deveria ter acontecido. É a falta do pensamento probabilístico. 

Mais grotesco ainda foi nossa certeza de que venceríamos a final da Copa do Mundo de 1998. Tínhamos tanta certeza de que venceríamos a Seleção Francesa (dentro da França), que ao perder, foi necessário encontrar uma explicação, um nexo causal para a derrota: Ronaldo teve convulsão ou o Brasil vendeu o jogo à FIFA. Algo de estranho aconteceu naquele jogo. Isso é o tipo de pensamento primário, perpetuado até hoje pelos especialistas (brasileiros). Em um jogo entram dois times e um sai derrotado. Este foi o Brasil. Aquela seleção não chegava a ser espetacular, estava jogando dentro da França, com um time que tinha Zidane. Desta forma, na melhor das hipóteses, o Brasil tinha 50% de probabilidade de vencer. Perdeu. Foi uma derrota mais do que normal, não precisa de convulsão como explicação. 

Até aí tudo bem, pois estamos falando de um esporte, cujo folclore é enriquecedor. Porém fico perplexo ao ver o mesmo tipo de pensamento primário na medicina. Aliás, esse pensamento se torna até mais comum, quando lidamos com a típica presunção dos profissionais médicos. O presunçoso não gosta de lidar com probabilidade, com incerteza. Em decisões sobre tratamento, diagnóstico ou prognóstico, violamos o pensamento probabilístico, pois nossa autoridade é desafiada pelo reconhecimento da incerteza.   

Ao fazer um prognóstico “sombrio”, mesmo que temperado por palavras eufemísticas, nossa verdadeira conotação é dicotômica, ao ponto de “milagres” assumirem o papel causal quando o desfecho é favorável. Assim se criam os milagres, aqueles mesmos que andam pendurados nos tetos das igrejas ou são usados como “evidências” para o reconhecimento de santos. Milagres são criados (pelo menos em sua vasta maioria) pela falta de percepção de que, mesmo pouco provável, a recuperação do paciente era possível, tinha uma probabilidade de acontecer. 

Quando falamos em um paciente de alto risco para infarto, isso quer dizer uma probabilidade de 20% de infarto nos próximos 10 anos. A probabilidade não ter o evento é muito maior do que a de ter o evento.  Mas usualmente a palavra alto risco traz uma conotação de inexorável e iminente. Tudo um exagero, como se de fato tivéssemos a tal bola de cristal. Da mesma forma, quando um indivíduo de baixo risco desenvolve um problema, isso não é um erro de predição. Baixo risco de infarto é definido como um risco menor que 10%, não é um risco inexistente. 

No entanto, ficamos (erradamente) inconformados com os “erros” dos modelos prognósticos, assim como ficamos inconformados se chover ao invés de fazer o sol da previsão, ou se o Brasil não for campeão apesar de ter sido o favorito. Por isso que bons modelos preditores passam a ser ridicularizados como se fossem modelos ruins. A partir desta ridicularização, criam-se soluções mágicas (e lucrativas) para melhorar o poder preditor destes modelos.  

Vejam o caso da predição de risco cardiovascular primário. Escores de risco, como o Framingham, apresentam uma área abaixo da curva ROC satisfatória, em torno de 70% ou 80%. Mas nunca serão perfeitos, pois são modelos que tentam prever o futuro sem uma bola de cristal. Mas o inconformismo com a incerteza faz com que muitos rotulem estes escores de risco como inacurados, propondo que exames complexos sejam realizados adicionalmente. A sugestão de que o escore de cálcio seja realizados em todos os pacientes de risco intermediário é um dos maiores exemplos do pensamento dicotômico. A maioria dessas pessoas classificadas como de risco intermediário são de fato de risco intermediário (inclusive a calibração dos escores clínicos é melhor em pacientes de risco intermediário). Mas não aceitamos trabalhar com a definição de intermediário (o que se aproximaria do pensamento probabilístico), ficamos inconformados em classificar alguém assim, como se esta classificação estivesse errada. Precisamos reclassificar estas pessoas. Daí surge a proposta de realizar escore de cálcio em todos os pacientes de risco intermediário. Esse é o maior exemplo da não aceitação da incerteza inerente à realidade prognóstica. A faixa intermediária (realista) é inaceitável. Entra aí o escore de cálcio sendo propagado por reportagens televisivas como os salvadores da pátria, como uma bola de cristal a determinar quem terá um infarto. É assim? Claro que não, o escore de cálcio incrementa a área abaixo da curva ROC em apenas 5 a 10%. Muitos pacientes reclassificados para alto risco não vão ter infarto e alguns reclassificados para baixo risco terão infarto. Ou seja, há também reclassificações erradas. A incerteza permanece!!! Isto foi motivo de postagem prévia neste Blog, publicada também sob a forma de correspondência no Journal of American College of Cardiology, onde procuramos redefinir em que situação o escore de cálcio será útil. 

Este tipo de equívoco de pensamento é inerente a predições prognósticas, em futebol e medicina. A grande evolução prognóstica não será proveniente de novos biomarcadores mágicos, mas sim da incorporação da incerteza ao raciocínio clínico.  

Vejam o uso de estatina em um paciente de “alto risco’' para infarto, com colesterol elevado. Pensamos de forma dicotômica, ou seja, se prescrevermos estatina, o paciente será protegido contra esse desfecho, se não prescrevermos (coitado), ele terminará em um infarto. É assim? Claro que não, lembrem-se do paradigma do número necessário a tratar (NNT). Neste caso, o NNT é de 30 (prevenção primária). Ou seja, precisamos prescrever estatina a 30 pacientes para que 1 tenha um infarto prevenido. Ou seja, a probabilidade do tratamento beneficiar o seu paciente é 3% (1/30). O paciente tem que dar sorte de ser um que teria o infarto (nem todos terão infarto) e que a estatina previna este infarto que estava por vir (nem todos os infartos conseguem ser prevenidos). Esta perspectiva de probabilidade nos permite tomar melhores decisões. Neste caso, a regra é o uso da estatina, eu prescrevo. Porém se houver algum fator contrário ao uso da droga, alguma contra-indicação, efeito colateral importante ou desejo do paciente, não seria um absurdo ponderar e não insistir na prescrição. O pensamento não científico, dicotômico, faz com que tratemos pacientes com "receitas de bolo", enquanto o pensamento científico propõe a individualização com base em conhecimento das probabilidades de benefício e malefício. 

Probabilidade Condicional

A esta altura da Copa, depois de Brasil 0 x 0 México no segundo jogo, a probabilidade inicialmente calculada por Nate Silver (47% do Brasil ser o campeão), já mudou. Antes achávamos que o Brasil  era favorito, mas depois de compararmos seu desempenho com os de outras grandes seleções, como Holanda e Alemanha, talvez ele não seja mais o favorito. Isso vai mudando de acordo como as coisas vão ocorrendo. Esse tipo de estimativa da probabilidade, condicionada aos acontecimentos prévios mais recentes, será de grande utilidade quando incorporada ao pensamento médico. 

Imaginem um paciente internado com infarto. No momento da admissão, podemos usar modelos probabilísticos (Escore TIMI, Escore GRACE) para calcular o risco de morte durante o internamento. Imaginem que no momento da admissão o paciente foi classificado como alto risco de morte. Porém, se o paciente ficar estável, a cada dia que permanece vivo, sua probabilidade de morte vai reduzindo. O conceito é o seguinte: a probabilidade de morte no segundo dia, dentre os pacientes que sobreviveram ao primeiro dia, já é menor. Houve uma seleção natural, sendo que os sobreviventes do primeiro dia já são um grupo menos propício a não morrer. A probabilidade de morte no terceiro dia, dentre os pacientes que sobreviveram ao segundo dia, é menor ainda. E assim por diante. 

Esse é o conceito de hazard, um risco condicionado ao acontecimento anterior. Ao passo que risco  não leva em consideração o que ocorreu antes. Em estudos prospectivos, de coorte, o hazard é calculado assim: o programa de computador divide o tempo em vários pequenos períodos (separados por eventos subsequentes) e vai calculando a probabilidade de morrer em cada um desses períodos. Essas probabilidades são multiplicadas. Ou seja, imaginem um internamento de 3 dias: o hazard de morte = hazard do primeiro dia x hazard do segundo dia em se considerando os sobreviventes ao primeiro dia x hazard do terceiro dia considerando o sobreviventes do primeiro e segundo dia. Percebam que isso é diferente de risco, que é calculado apenas pela probabilidade do paciente morrer ao longo desses 3 dias, sem considerar que os sobreviventes dos primeiros dias são menos vulneráveis.  

Há uma grande utilidade deste tipo de pensamento. Imaginem um paciente que desenvolve fibrilação atrial permanente. No dia 1 da fibrilação atrial, podemos calcular o CHADS e estimar o risco anual de embolia, o que influenciará na decisão por anticoagulação. Agora imaginem um paciente igual a esse, que chega com documentação de fibrilação atrial há 10 anos, sem anticoagulação e nunca teve um AVC. Percebam como o risco de AVC calculado para este paciente será diferente do hazard de ter um AVC. No cálculo do hazard, considermos: passados 10 anos sem AVC, qual a probabilidade deste paciente ter um AVC? Esta é uma situação em que o hazard vai reduzindo com o tempo, na medida em que os pacientes que tiveram AVC são excluídos dessa pergunta. Esse é um paciente menos propício a ter um AVC do que os pacientes em geral. É útil identificar situações como esta, em que o hazard vai reduzindo. Se recebermos um paciente de 85 anos, com fibrilação atrial, que o médico anterior vinha acompanhando sem anticoagulação e nunca teve uma AVC ao longo de 10 anos, devemos agora, só porque somos uma segunda opinião, calcular o CHADS e prescrever anticoagulante? A resposta é não, pois o tempo já selecionou este paciente com alguém menos vulnerável à complicação embólica. Além disso, agora aos 85 anos, o risco do sangramento não é pequeno. Tranquilamente, pensando no hazard, respeitamos o histórico do paciente e podemos manter a conduta sem anticoagulação. 

Há situações em que o harzard vai aumentando com o tempo. Por exemplo, o hazard de morrer por qualquer causa vai crescendo com o tempo, na medida em que envelhecemos, mesmo que não tenhamos morrido até agora. Assim como o hazard de desenvolver um câncer ou um evento coronário, pois estes são fatores muito associados a idade. E há outras situações em que o hazard é constante. Por exemplo, qual o risco de pegar uma meningite no ano 2016. Isso não aumenta, nem diminui com o tempo.  

O Julgamento do Especialista

O especialista tende a não utilizar de probabilidade, pois percebe o reconhecimento da incerteza como um fator antagônico à sua autoridade. Isto ocorre no futebol, onde as mais diversas opiniões são omitidas pela cabeça de cada comentarista esportivo. É como se o conteúdo importasse menos  do que a forma da mensagem. De fato, no campo de entretenimento é muito mais interessante ouvir a opinião de um ex-craque (mesmo que errada), do que utilizar um modelo probabilístico. E não é diferente com médicos, que insistem em utilizar seus julgamentos subjetivos, em detrimento de ferramentas como escore probabilísticos. Em diversas áreas profissionais, o julgamento de especialistas foi comparado com modelos matemáticos de predição e os modelos mecânicos ganham: modelo matemáticos determinam sucesso de uma safra de vinho melhor que o provador especializado, assim como escores de risco predizem melhor mortalidade em síndromes coronarianas agudas do que a opinião de cardiologistas experientes. Por que? Porque (1) nossa mente não funciona estatisticamente, (2) supervalorizamos o efeito de variáveis de pouco poder preditivo, mas que nos impressionarem subjetivamente, (3) pensamos de forma univariada ao invés de multivariada (se é diabético, vai ter estenose do stent; se é o Brasil, vai ganhar; se é árabe tentando entrar nos Estados Unidos, é terrorista - vide postagem 1 e 2 neste blog sobre pensamento univariado versus multivariado), (4) não ajustamos mentalmente nossa experiência para variáveis de confusão que permeiam os fenômenos cotidianos. O bom especialista é o que sabe reconhecer a limitação de sua primeira impressão, recorre ao modelos preditores imunes a estas fatores e reconhecem a incerteza ao trazer a resposta sob a forma de probabilidade. O mal especialista é o que tenta validar sua primeira impressão, procurando seletivamente argumentos, ao que se chama de viés de confirmação.

A Evolução Filosófica

A cada dia, a cada hora, surgem inúmeras publicações sobre novos marcadores de risco nas diversas situações médicas. É uma busca incessante do marcador ideal, aquele que vai predizer com perfeição o desfecho do paciente. Porém a grande evolução na área de marcadores prognósticos estará na evolução do pensamento dicotômico para um pensamento probabilístico, baseado em modelos multivariados. Isto em nada diminui a importância do médico, esse continuará pensando e usando sua intuição em suas decisões. Porém usando uma sequência lógica e hierárquica. Primeiro, para determinar o risco de um paciente, devemos usar de modelos prognósticos validados. Sabendo o risco, podemos estimar a magnitude de uma potencial intervenção na redução daquele risco. Sabendo a magnitude do benefício, agora podemos usar nosso julgamento subjetivo. Quero oferecer este benefício ao paciente, considerando os riscos e custos do tratamento? Ou seja, primeiro houve a inferência matemática, seguida de uma inferência subjetiva que envolve sensibilidade, ponderação e compartilhamento da decisão com o paciente. 

Filosoficamente, devemos aprender a conviver com incerteza, pois grande parte dos desfechos de nossa vida são aleatórios. A foto abaixo foi minha filha que tirou hoje. Vejam como o céu está incerto, isso no mesmo dia, no mesmo momento. De um lado, o céu indica que vai chover, do outro sugere que vai fazer um dia lindo. Estamos incertos do que acontecerá na próxima hora. Por que então queremos certeza na previsão meteorológica dos próximos dias ou na previsão da evolução clínica de um paciente? 




O caminho é voltar atrás e ouvir as palavras sábias de Willian Osler, proferidas há um século. Reconhecendo incertezas e aceitando o uso de probabilidades, teremos mais serenidade com os desfechos de nossos pacientes e tomaremos decisões mais ponderadas. 

Se no início era 47% a probabilidade do Brasil vencer esta Copa, acho que agora está em 30%. Talvez ainda sejamos favoritos, mas a probabilidade de perder é maior do que de ganhar. O pensamento probabilístico nos permitirá reagir melhor ao resultado da Copa. Seja ele qual for. Até uma eventual vitória ficará mais interessante de comemorar, em se considerando o quanto esta era incerta.

terça-feira, 15 de abril de 2014

José Wilker: morte natural ou anomalia evitável?


O ator José Wilker morre subitamente, aos 66 anos, do que provavelmente tenha isso um infarto acompanhado de fibrilação ventricular. Um fato triste, um grande ator em plena fase produtiva. Sentiremos falta. Acompanhando o fato, surge espontaneamente a visão de que algo melhor deveria ter sido feito para prevenir sua morte, ele não deveria ter morrido. No pensamento comum, a morte de José Wilker, tão jovem (mesmo?), é uma anomalia. 

Será mesmo? O quanto este acontecimento é anormal?

Um exemplo deste tipo de pensamento foi a reportagem da Revista Istoé que se seguiu a sua morte, trazendo uma revisão das estratégias preventivas do infarto e sinalizando que provavelmente José Wilker não fez exames cardiológicos suficientemente capazes para prevenir seu desfecho fatal. 

Este tipo de colocação resulta da forma de pensamento intuitivo caracterizado pela dicotomia da causalidade. Esta forma comum de pensar toma corpo em detrimento do pensamento probabilístico, estatístico, científico.

Enquanto o pensamento probabilístico infere que uma medida de prevenção reduz em alguma magnitude a probabilidade de morte cardíaca, o pensamento dicotômico interpreta o mundo como um interruptor que a gente liga ou desliga de acordo com nossas ações. Inconscientemente, nossa mente funciona assim: se a prevenção correta fosse feita, Wilker não morreria, enquanto a culpa da morte dele está em alguma falha na forma de prevenção. É a procura de um nexo causal para todo fato marcante, a procura de um bode expiatório. Encontrar uma explicação causal para tudo nos deixa com uma falsa sensação de controle, nos traz um certo conforto cognitivo. 

Porém, se pensamos de forma menos cartesiana, entenderemos que os eventos da natureza decorrem de uma multiplicidade de causas, que interagem entre si de forma complexa. Isto torna impossível predizer quando e como um fenômeno acontecerá. Podemos apenas predizer a probabilidade do ocorrido. Em outras palavras, todo José Wilker têm um probabilidade de morte cardíaca que vai aumentando a cada ano.  E aos 66 anos, mesmo sem muitos fatores de risco, sua probabilidade fica no nível intermediário, em torno de 10% em 10 anos. Bem, ele pode, casualmente, ter caído nestes 10%, mesmo que tenha feito tudo certo. Por isso, antes de encontrar um bode expiatório, devemos refletir se o que ocorreu estava dentro do previsto, se isso não foi  um fenômeno natural. 

Uma alternativa boa para impedir casos como este seria voltar ao início do século passado, quando a média de expectativa de vida não passava de 40 anos. Naquela época era bom, pois não dava tempo de termos morte súbita cardíaca. Nem dava tempo da visão de leitura piorar ou dos dentes começarem a dar problema. Aquilo é que era vida. Agora que vivemos muito mais, temos que aprender a lidar com certos ocorridos de forma natural. Volta e meia, a despeito da evolução nas verdadeiras estratégias de prevenção (controle de fatores de risco), alguém morre subitamente. Coisa estranha ou coisa natural?

Daí entra um outro viés cognitivo típico de nossa mente não estatística. A supervalorização de fenômenos raros. Fenômenas raros devem ser interpretados como exceções, como obra do acaso, decorrente daquela probabilidade de 10% de evento coronário em período de 10 anos. O raro não deve nortear as regras. No entanto, nós supervalorizamos o raro, pois as coisas incomuns marcam mais do que o comum. O comum fica banalizado, o raro supervalorizado, mesmo que estatisticamente o comum seja muito mais importante.

E aí vem o melhor. Considerando a morte de José Wilker uma anomalia que deveria ter sido evitada, precisamos rever nossa estratégia preventiva. Daí a Revista Istoé, munida da opinião de “especialistas”, sugere que assintomáticos devem realizar exames ainda mais sensíveis, para diagnosticar doenças ocultas, uma recomendação em prol do overdiagnosis, distorção tão comentada neste blog (postagens Papai Noel e George Bush). 

José Wilker morreu de coração porque viveu até os 66 anos. Era assintomático e controlava bem seus fatores de risco, fazia o que deveria ter feito e não precisava de pesquisa de doença coronária. Porém prevenção não é impedimento total do evento indesejado. Wilker poderia não ter doença coronária obstrutiva e o que ocorreu foi uma instabilidade de placa anteriormente sem significado anatômico ou funcional (nada a fazer além do controle de fatores de risco). Ele poderia ter uma placa obstrutiva, porém sabemos que procedimentos nesta placa não reduz mortalidade (nada a fazer). Ou ele poderia ser um dos raros de assintomáticos com doença coronária de gravidade extrema, cujo procedimento de revascularização reduziria sua mortalidade. Porém, para cada caso raro deste tipo, há o prejuízo de tantos que sofrem overdiagnosis com a conduta do rastreamento excessivo da doença, gerando nestes indivíduos procedimentos desnecessários, que causam desconforto, sequelas e até morte. O overdiagnosis se define como um diagnóstico correto, porém  o potencial malefício é maior do que o potencial benefício do diagnóstico. Este é o pensamento probabilístico. 

Nossa mente não estatística trabalha com memória seletiva. Nunca esqueceremos o raro dia em que encontrarmos um caso que se beneficiou de um rastreamento. Porém, em nossa mente crente, esqueceremos do assintomático que morreu na cirurgia cardíaca ou dos muitos que fizeram exames invasivos normais ou procedimentos de revascularização desnecessários. 

Observem como nosso cognitivo nos trai pelo somatório de vários viéses: o pensamento anti-estatístico, tropismo por causalidade, supervalorização do raro e memória seletiva. Haja armadilhas mentais!

Ao ter humildade para reconhecer nossa limitação em predizer  e prevenir fenômenos de forma determinística, nos aproximamos de um raciocínio médico racional, aumentando assim a probabilidade de alcançarmos os tão falados princípios da não malefiência e da beneficência. 

quarta-feira, 5 de março de 2014

Meta-Realidade: revascularização cirúrgica é melhor do que percutânea


Depois de um feriado inundado por uma festa acéfala, na qual Lepo Lepo é a melhor música (convido-os a reler nossa portagem do carnaval de 2012, um link irônico entre axé e medicina),  precisamos colocar nosso cérebro para funcionar novamente. Sendo assim, nada melhor do que discutir uma meta-análise.

Na semana passada, foi publicado no JAMA Internal Medicine a revisão sistemática dos ensaios clínicos randomizados que compararam cirurgia de revascularização miocárdica versus intervenção coronária percutânea (“angioplastia”). A meta-análise (compilação estatística dos dados) evidenciou que a cirrugia é superior à angioplastia no que diz respeito à prevenção de morte, infarto e controle de sintomas. 

A conclusão foi clara e objetiva: “In patients with multivessel coronary disease, compared with
PCI, CABG leads to an unequivocal reduction in long-term mortality, myocardial
infarctions and repeat revascularizations.”

Nesta postagem, discutiremos a translação deste achado científico para a prática clínica. Reforçaremos o raciocínico clínico baseado em evidências, no qual partimos do conceito provado cientificamente e em seguida consideramos a individualidade do paciente no processo de decisão.

Mas antes disso, vamos aproveitar para abordar aspectos metodológicos de meta-análises. 

Meta-análise: Heterogeneidade

Usualmente, o que mais se valoriza na leitura de meta-análises é a estimativa sumária, resultante da compilação dos diferentes trabalhos. Esta estimativa é o diamante que aparece no gráfico conhecido como forest plot (veja abaixo). Porém, tão importante (ou talvez mais importate) que o diamante, é a análise de heterogeneidade.

Imaginem se fizermos um experimento que mostra um certo resultado. Podemos nos perguntar, esse resultado é verdadeiro? A melhor forma de avaliar essa veracidade seria repetir o experimento várias vezes e ver se o mesmo resultado se repete. Mas isso não ocorre, quem faz um ensaio clínico só faz uma vez e publica. O que faz uma meta-análise é simular esta repetição de experimentos, utilizando os estudos que existem na literatura. Hipoteticamente, ao realizar uma meta-análise, estamos repetindo o experimento várias vezes. E nesta repetição, avaliamos heterogeneidade entre os estudos, vendo se o resultado se repete nos diferentes experimentos. Se os experimentos se confirmam entre si, ficamos mais certos de que aquele resultado não decorreu do acaso.

Desta forma, um parâmetro importante no resultado de uma meta-análise é a medida de heterogeneidade, representada por I2, o qual indica o percentual da variação do resultado entre os estudos que ultrapassa o efeito do acaso. 

Explicando melhor, estudos diferentes nunca terão resultados idênticos, sempre haverá alguma diferença. Estas diferenças resultam de variação aleatória (acaso) + diferenças verdadeiras. Se as diferenças são só pelo acaso, elas vão até um certo ponto. Além de um certo ponto, o que há de diferença pode ser devido a discordância real entre os estudos. O I2 é o percentual da variação entre os estudos que decorre de diferenças reais, de discordâncias verdadeiras. Interessante notar é que quanto maior o tamanho amostral dos estudos, mais fácil detectar heteregeneidade, pois sendo estudos mais precisos, o efeito do acaso se reduz e eventuais diferenças tendem a ser mais reais. 

Pois bem, na meta-análise em questão I2 = 0%, ou seja, os estudos não apresentam heterogeneidade alguma quanto ao impacto dos tratamentos no desfecho. Não há discordância real entre os estudos, todas as diferenças são decorrentes do acaso. Visualmente (gráfico), dos 6 estudos, 4 estão dizendo a que cirurgia é melhor e 2 mostram resultados semelhantes entre os dois tratamentos. Porém observem que estes 2 estudos distoantes apresentam grandes intervalos de confiança (imprecisos), podendo esta discordância ser decorrente do acaso. E o I2 estima que toda a discordância decorreu do acaso. 

Assim, interpretamos que a análise da totalidade das evidências reforça o conceito de que pacientes operados apresentam menor mortalidade do que pacientes submetidos a angioplastia.

Quando há muita heterogeneidade torna-se questionável a combinação do resultado de estudos, pois considera-se que devem ter sido diferenças metodológicas ou do tipo de população representada ou do tipo de tratamento empregado que levou àquelas discordâncias entre os trabalhos. Seria como combinar coisas diferentes, que não devem ser combinadas: mixing apples and oranges. 

A esta altura vocês devem estar se perguntando o que é muita heterogeneidade. Não há um número mágico, mas se considera que idealmente o I2 deve ser < 40% para que os estudos sejam compilados. Entre 40% e 60% seria aceitável e I2 > 60% já torna a compilação problemática. 

Outra questão que devemos observar é o tipo de diferença entre os estudos, se qualitativas ou quantitativas. Na primeira, os estudos de fato discordam em relação à direção do efeito. Na segunda, os estudos podem dizer a mesma coisa (há redução de mortalidade), o que difere é o grau de redução. 

Meta-análise: Estimativa Sumária

Uma vez analisado o parâmetro de heterogeneidade, partimos para a estimativa sumária, que é a medida que resulta da compilação entre os estudos. Esta não é a simples média dos resultado dos estudos. Na verdade, é como uma média ponderada. Ou seja, quanto mais preciso é o estudo, mais peso este terá no resultado da meta-análise. Estudos maiores tendem a ter mais influência no resultado final do que estudos pequenos. Estudos com estreitos intervalos de confiança terão mais influência do que estudos menos precisos. Observem no forest plot abaixo que a estimativa pontual do resultado de cada estudo é representado por um quadrado. Vejam que este quadrado varia de tamanho, pois este tamanho significa o peso que cada estudo teve na estimativa sumária.



Compilando os dados de diferentes estudos (simula a repetição dos experimentos) teremos uma infomação científica mais precisa. Ou seja, se repetimos o experimento várias vezes, saberemos mais a respeito da questão do que na análise de apenas um experimento. Por este motivo, o intervalo de confiança da medida sumária (o diamante do gráfico) é sempre mais estreito do que o intervalo de confiança dos trabalhos individuais. Por isso é mais provável que a significância estatística seja alçancada quando temos a compilação dos resultados, pois os intervalos de confiança ficam mais estreitos.

Sobre o diamante, o comprimento dele representa o intervalo de confiança, enquanto a medida pontual (no caso, do risco relativo) é representada pelo centro do diamante

Por exemplo, no estudo FREEDOM houve redução da mortalidade com cirurgia em relação a angioplastia e isso foi motivo de uma postagem neste Blog. Mesmo sendo a diferença estatisticamente significante naquele estudo, não podemos garantir que este achado não decorreu do acaso. E quando pensamos que a análise isolada de morte foi um desfecho secundário naquele estudo, a possibilidade do acaso fica superior ao demonstrado pelo valor de P. O que a meta-análise nos traz é a repetição do experimento quanto a este resultado. Ou seja, na medida em que todos os estudos estão falando a mesma coisa (redução de mortalidade com cirurgia), ficamos mais seguros que no FREEDOM este achado representou a verdade. 

É por isso que resultados positivos em desfechos secundários são mais confiáveis em meta-análises do que em estudos primários. Na medida em que o resultado se repete nos diferentes estudos, fica menor aquele nosso receio de que o resultado positivo decorreu do acaso.

Aqui estamos na situação ideal, a compilação de dados de estudos com resultados homogêneos.  Diferente desta situação, na postagem Meta-Ilusão, criticamos uma meta-análise que compilou resultados de estudos heteronêneos. Naquele exemplo, foram vários estudos pequenos e homogêneos + um grande estudo que sozinho mostrava o Dabigatran como causador de infarto. O resultado final da meta-análise foi dirigido por este grande estudo que tinha mais peso na estimativa sumária. Ou seja, aquilo não foi exatamente uma meta-análise, mas sim a repetição do resultado de um grande estudo. Não foi uma boa situação para compilar os dados, pois havia muita heterogeneidade. 

Mas se a decisão for por compilar dados heterogêneos, deve se utilizar um método estatístico que previne excessiva influência do estudo que distoa da maioria. É o modelo randômico (random-effect), o qual reduz o peso de estudos que distoam, mesmo que estes sejam estudos maiores. No entanto, na meta-análise do Dabigatran os autores não usaram este método. Eles usaram erradamente o modelo fixo (fixed-effect), o mesmo que foi usado (corretamente) na meta-análise da presente postagem. Resumindo, quando há heterogeneidade, deve ser usado o modelo randômico e quando não há heterogeneidade, deve-se usar o modelo fixo. Assim fica explicado o uso adequado do método estatístico. 

Voltando à meta-análise do Dabigaran, quando recalculamos a estimativa sumária pelo método randômico, a associação de Dabigatran com infarto desapareceu. Na época, em co-autoria com Antônio Alberto Lopes, publicamos esse novo cálculo neste Blog e posteriormente no JAMA Internal Medicine.

Outra questão que devemos observar é que estamos aqui com uma meta-análise de grandes estudos. Isso representa um nível de evidência melhor do que meta-análises de pequenos estudos, que geralmente são realizadas antes da publicação de um grande ensaio clínico. Neste segundo caso, há uma probabilidade de 30% do resultado da meta-análise estar errada, de acordo com um artigo que comparou estes resultados com os ensaios clínicos grandes que surgiram posteriormente. Enquanto uma revisão sistemática de grandes estudos de fase III representa uma forte evidência, uma revisão sistemática de pequenos estudos deve ser vista como geradora de hipóteses. 

Por fim, a qualidade da conclusão da meta-análise depende da qualidade metodológica dos estudos individuais. No presente caso, temos uma revisão apenas de ensaios clínicos randomizados, de boa qualidade, incluindo o Syntax e o FREEDOM, ambos discutidos previamente neste Blog. 

Meta-análise: Análise de Sensibilidade

Por fim, aproveitaremos esta meta-análise para abordar um terceiro aspecto metodológico, que é a análise de sensibilidade. Essa análise avalia o quanto sensível é o resultado a certas características dos estudos. É uma análise de subgrupo, mas não subgrupo de pacientes, mas subgrupo de estudos, divididos de acordo com certas características. Vejam na tabela abaixo, que os estudos são divididos naqueles que só incluíram diabéticos ou incluíram qualquer tipo de paciente. Valor de P da heterogeneidade entre os dois grupos = 0.80, mostrando que o resultado é o mesmo em estudo de diabéticos ou em estudo que incluem diabéticos e não diabéticos. Na postagem do FREEDOM, argumentamos que o resultado a favor da cirurgia provavalmente não se limitava a diabéticos, que foram os pacientes incluídos neste estudo. Pelo princípio da complacência, o resultado seria o mesmo em um não diabético que tivesse a mesma gravidade angiográfica. Na verdade, incluir diabéticos foi apenas uma forma de selecionar pacientes graves angiograficamente. O FREEDOM ia além do FREEDOM, e essa nossa visão ficou confirmada pela análise de sensibilidade aqui presente. Além disso, os autores fizeram análise de sensibilidade em relação ao tipo de stent e mostraram que não importa, o resultado é o mesmo. 

Análise de sensibilidade é a análise de subgrupo de meta-análises. 


Desta forma, revisamos três aspectos da meta-análises: análise de heterogeneidade, estimativa sumária (diamante) e análise de sensibilidade.

Após esta breve revisão, vamos ao raciocínio clínico.

Cirurgia versus Angioplastia: A Decisão

Fato baseado em evidências: cirurgia é melhor que angioplastia na redução de mortalidade, infarto e controle de sintomas. O que isso quer dizer na prática clínica? Cirurgia será sempre a melhor escolha? Este é um bom exemplo para demonstrar que medicina baseada em evidência não é copiar a conclusão de um trabalho científico (cirurgia em todos). O processo mental deve partir do conhecimento científico (qual o melhor tratamento, o quanto este é melhor, qual o preço a ser pago pelo melhor tratamento), que será o norte de nosso raciocínio. A partir daí, vamos avaliar as particularidades do paciente e julgar se este é o paciente que devemos pagar o “preço” de um tratamento mais agressivo para desfrutar de sua superioridade. Muitas variáveis devem influenciar nessa decisão. 

Em primeiro lugar, devemos avaliar a magnitude do benefício a ser desfrutado. Para isto, precisamos partir do geral ao específico. A estimativa sumária do risco relativo da cirurgia para mortalidade é 0.73, o que implica em 27% de redução relativa do risco. Sabemos que a redução relativa obtida com tratamentos em geral tende a ser constante em diferentes tipos de pacientes. Porém, esta mesma redução relativa de 27% resultará em grande redução absoluta em um paciente de alto risco ou uma pequena redução em um paciente de baixo risco. Se a mortalidade do paciente é 20% sem cirurgia, redução de 27% equivale a 5% de redução absoluta (NNT = 20, grande impacto); mas se a mortalidade do paciente for estimada em 5%, redução de 27% equivale a  apenas 1.4% de redução (NNT = 71, pequeno impacto) - redução absoluta do risco = redução relativa x risco basal do paciente. Os trabalhos normalmente descrevem o risco relativo, pois este tende a ser constante em diferentes populações, tem boa validade externa. Mas o verdadeiro impacto na vida do paciente é a redução absoluta do risco, a qual varia com seu risco basal. Para um paciente pouco grave, o benefício deste tratamento mais agressivo é pífio, não vale a pena. Exatamente por isso que os trabalhos selecionaram pacientes mais graves, quase sempre triarteriais. Neste grupo de pacientes, o NNT da cirurgia foi 37. São nesses que a cirurgia pode valer pena. 

(Para revisão dos conceitos abordados nos parágrafos acima, sugiro as postagens "Pensamento Relativo" e "A Magia do NNT").

Neste momento entra a segunda questão. O “preço” que será pago por este benefício. Imaginem um muito idoso, estável, de alto risco cirúrgico. Este terá uma cirurgia muito sofrida, com risco de complicações e até sequelas. Mesmo que venha a reduzir sua mortalidade, deve-se avaliar se queremos pagar esse preço com um procedimento de tamanha agressividade. Sim, nem sempre queremos pagar o “preço” da redução de mortalidade. Sabem porque? Porque saber que cirurgia reduz mortalidade não é significa salvar a vida de todo paciente cirúrgico e deixar morrer todo paciente com angioplastia. Não é algo dicotômico assim. Como explicamos na postagem do NNT, precisaremos tratar com cirurgia um grande número de pacientes para que 1 deles tenha a vida salva por ter feito cirurgia ao invés de angioplastia. Se NNT da cirurgia versus angioplastia para prevenir uma morte é 37 (grande impacto), isto quer dizer que 36 de 37 pacientes não se beneficiarão desta redução de morte, mas pagarão o “preço” da cirurgia. 

Desta forma, medicina baseada em evidência não é seguir sempre o resultado de um ensaio clínico. Devemos computar o quanto a cirurgia é melhor e saber caso a caso se vale a pena pagar o “preço” da cirrugia. Em pacientes de baixo risco cirúrgico, vale a pena, mas na medida em que o risco cirúrgico vai aumentando, essa convicção pela cirurgia vai diminuindo. Nesta análise entram variáveis do risco basal, do risco cirúrgico e também as preferências, os valores de nosso paciente. É algo complexo, que mistura o pensamento lógico com o pensamento intuitivo. No final do processo o lado direito do cérebro (intuitivo) deve contribuir com o lado esquerdo (racional). É a união da arte médica com a evidência científica, cada um como sua função específica.

É comum o equívoco de que medicina baseada em evidências representa uma tirania de seguir sempre o resultado de um estudo. Daí quando o resultado vai de encontro a certos interesses (ou entusiasmos), alguns começam a combater bons estudos com argumentos pífios. Mas este é o argumento errado. O argumento certo a favor da angioplastia não é aquela balela de sempre: críticas à amostra estudada, crítica ao stent utilizado, etc. O argumento certo a favor da angioplastia (a despeito da cirurgia ser melhor) é o raciocínio que pondera a magnitude do benefício desfrutado com a cirurgia e o “preço” a ser pago por este procedimento mais agressivo. A grande vantagem da angioplastia é sua “simplicidade”. Por vezes queremos desfrutar desta vantagem. 

Por fim, devemos lembrar que para redução de morte ou infarto, angioplastia não é melhor que tratamento clínico. Portanto, na ausência de escolha pela cirurgia, o tratamento clínico torna-se uma opção bastante razoável. A presença de sintomas significativos ou instabilidade do paciente tende à escolha da intervenção percutânea, do contrário, tratamento clínico é uma boa opção.

A consistência de resultados entre diferentes trabalhos reforça o paradigma científico: é incontestável, cirurgia é melhor do que angioplastia em pacientes triarteriais. A partir disso, como médicos pensantes, devemos avaliar nosso paciente e fazer a melhor escolha, considerando suas características clínicas e suas preferências pessoais. Essa é a racionalidade da medicina baseada em evidências.