domingo, 23 de novembro de 2014

Análise Multivariada: Predição versus Causa, Confusão versus Interação


Predizer ou inferir sobre causalidade são as duas grandes razões científicas de testarmos associação estatística entre variáveis. Devemos iniciar nosso pensamento definindo em qual desses dois se encaixa o nosso objetivo científico.

O funcionário da imigração americana procura identificar indivíduos que tentam entrar no país para realizar atos terroristas. Este funcionário se utiliza da regra de que todo muçulmano deve ser tratado como tal até que se prove o contrário. Este é um exemplo de predição

Um dentista observa no cotidiano profissional que pessoas disciplinadas no uso de fio dental possuem menor carga de placa bacteriana. Isto faz com que a cada dia ele acredite mais na eficácia do fio dental em causar uma melhor condição dentária. Este é um exemplo de causa.

Estes são pensamentos univariados, que demonstram a tendência natural de funcionamento de nossa mente. No entanto, essa forma de pensamento não é bem adaptada à realidade do universo, o qual se apresenta de maneira mais complexa e interessante: o mundo é multivariado.

Na análise univariada, a força associação de uma variável com o desfecho representa seu efeito total. No entanto, esse efeito total resulta do efeito  direto e do efeito indireto da variável. O efeito indireto decorre de outras variáveis que estão associadas simultaneamente à variável preditora de interesse e ao desfecho, causando um link entre esses dois. 

Na análise multivariada, as variáveis preditoras são analisadas simultaneamente, de forma que o efeito de cada variável é ajustado para o efeito das demais. Assim, identificamos o efeito direto de cada variável na predição do desfecho, um efeito que independe de outras variáveis. A isso chamamos de associação independente.

Idealmente, o funcionário da imigração deveria utilizar um modelo multivariado, o qual considera várias características do indivíduo (sexo, país, nível educacional, aspecto físico, se é casado, se tem filhos, etc) para calcular a probabilidade de ser terrorista. Caso haja uma probabilidade acima de um ponto de corte, o indivíduo deve ser retido para investigação. Melhor do que prender todo muçulmano. Seria uma conduta baseada em uma estimativa de risco por um modelo multivariado. 

Neste modelo preditor, entrariam apenas variáveis que possuam associação independente (direta) com o desfecho. Além disso, o peso da presença de cada característica na probabilidade do desfecho é dado com base neste efeito direto da variável. Daí a importância de se utilizar análise multivariada na construção de modelos preditores.

Idealmente, o dentista deveria entender que o mundo a nossa volta é repleto de fatores de confusão, que geram ilusão de causalidade, quando na verdade estamos diante de associações indiretas. Fatores de confusão são aquelas variáveis associadas simultaneamente ao preditor e ao desfecho. Assim, elas conectam o preditor e o desfecho, porém esta conecção não representa um link de causalidade.

Neste caso, um modelo científico adequado precisaria avaliar se menor carga de placa bacteriana em pessoas que usam fio dental decorre de uma melhor escovação (pessoas mais disciplinadas) ou diretamente do uso de fio dental. Um modelo que ajustasse para o efeito de confusão da escovação, que provavelmente é de melhor qualidade nas pessoas que usam fio dental. Percebam que escovação não é uma forma através da qual o fio dental funcionaria. Portanto, a ligação que escovação promove entre fio dental e desfecho não faz parte de um link de causalidade, é apenas um efeito de confusão.

Observem que tanto na criação de um modelo preditor quanto na avaliação da causalidade, é importante a identificação de associação independente entre variável preditora e desfecho. No caso do modelo preditor, essa associação direta deve ser independente de qualquer variável que possa estar intermediando a relação preditor-desfecho, pois queremos apenas colocar na fórmula preditora o efeito direto de cada variável. No caso da avaliação de causalidade, devemos ajustar apenas para variáveis de confusão, que são variáveis que intermediam a relação preditor-desfecho, porém sem um link de causalidade. 


Predição versus Causa 


Um modelo preditor deve ser criado pelo princípio da parcimônia, onde devemos alinhar acurácia e simplicidade. Ou seja, uma variável que pouco contribui, não deve ficar no modelo final. Ela torna o modelo mais complexo, sem trazer muito valor. Por outro lado, todas as variáveis que incrementam o valor preditor, devem fazer parte deste modelo final. No caso de predição, os preditores no modelo final podem, mas não precisam ser a causa do problema (fator de risco), precisam apenas identificar o problema (marcador de risco). Assim se constrói um modelo com intuito preditor. 

O modelo construído para avaliar causalidade tem um princípio diferente. Como não é predição, este modelo deve ser construído com base na lógica da causalidade. Há fatores que são fortes preditores, mas não devem estar neste modelo. Por exemplo, calcificação coronária (escore de cálcio) é um preditor independente de infarto. Porém não é o cálcio que causa o infarto, este apenas marca uma doença mais grave. Desta forma, quando queremos saber se colesterol causa infarto, não devemos ajustar para o escore de cálcio, pois este modelo deve ter apenas aqueles fatores que possuem plausibilidade etiológica.

Percebem que o estatístico não conseguiria fazer isso sem o pensamento do pesquisador? Ou seja, a construção de um modelo estatístico deve ser guiada pela pergunta científica. 

Devo salientar que não basta associação independente para garantir que a associação é causal. A associação independente é um critério necessário, mas não suficiente para causalidade. É apenas o início de um processo de inferência a respeito de causalidade.

Confusão versus Interação


Sem querer evitar o trocadilho, há muita confusão entre os conceitos de confusão e interação. Mas são coisas bem diferentes. 

Revisando mais uma vez, confusão é quanto uma variável (ou mais) intermedia uma falsa associação entre duas outras variáveis. Ajustando para esta variável de confusão, saberemos se a relação é direta entre variável preditora e desfecho. Este conceito de necessidade de ajuste para confusão por análise multivariada se aplica à construção de um modelo preditor (para evitar redundância) e também se aplica à identificação de uma variável causal (um dos critérios de causalidade é predição independente). 

Interação é diferente, bem diferente. Interação pode ser entendida como modificação de efeito

Um jogador de futebol que parece até bonzinho no time do Bahia, mas quando vai para um time europeu, torna-se um jogador de seleção. Podemos interpretar que o ambiente europeu modifica para melhor efetividade do jogador em fazer seu time ganhar. Este é um exemplo de interação entre time e efetividade do jogador. 

Interação é avaliada por análise multivariada, pois há pelo menos três variáveis preditoras: (1) efeito do jogador no resultado do jogo, (2) efeito do time (bahiano ou europeu) e a (3) interação entre eles. 

No pensamento clínico, análise de interação é importante, pois que posso querer saber se uma variável prediz o desfecho de forma similar entre homens e mulheres. Ou se um fator de risco causa uma doença de forma similar entre jovens e idosos. Ou se uma droga funciona com a mesma eficácia entre pacientes de diferentes tipos. 

Resumindo



Sendo assim, análise multivariada serve para (1) criar modelos preditores; (2) avaliar a possibilidade de uma variável ser causadora do desfecho; e (3) analisar de interação. 

Há diferentes testes para análise multivariada, que variam de acordo com o tipo de variável preditora ou tipo de variável desfecho. 

  1. Regressão logística: desfecho categórico e preditores categóricos/numéricos. 
  2. ANOVA multivariada: desfecho numérico e preditores categóricos.
  3. Regressão linear múltipla: desfecho e preditores numéricos.
  4. ANCOVA: desfecho numérico e preditores categóricos/numéricos.

Espero que esta postagem tenha dado um ideia geral de análise multivariada. Resumo abaixo, os principais conceitos que devem ficar em nossas mentes ….

  1. Análise multivariada serve para construir um modelo preditor ou participar da avaliação de causalidade de um determinado fator. E a forma de construção do modelo depende dessa definição.
  2. Análise multivariada faz ajuste para co-variáveis, determinando associação independente, condição necessária para que a variável faça parte de um modelo preditor ou que seja considerada uma das causas do desfecho. 
  3. No modelo preditor, a associação deve ser independente de qualquer variável que esteja intermediando, enquanto no modelo causal, a associação deve ser independente de variáveis de confusão (link não causal).
  4. Interação não é a mesma coisa que confusão. Enquanto confusão significa uma variável X mediando a relação indireta entre duas variáveis Y e Z, interação significa uma variável X modificando uma relação entre duas variáveis Y e Z. 
Caso a mente esteja confusa, fiquem pensando no assunto e depois de dois dias releiam essa postagem. O entendimento deve vir de dentro pra fora. 

sábado, 1 de novembro de 2014

O Mito do Fio Dental


Certa feita deixei o consultório de meu dentista refletindo se aquelas recomendações de utilização do fio dental eram efetivas. Naquele momento eu nem questionava eficácia, minha dúvida residia na efetividade de uma medida tão trabalhosa, que requer intensa disciplina. Além disso, eu me perguntava a respeito da eficiência (custo-efetividade), sendo que o maior custo aqui é o tempo investido diariamente na aplicação do fio dental.

No caminho de casa, minha curiosidade foi aumentando e cheguei ao ponto de questionar a eficácia daquele lucrativa medida: há ensaios clínicos randomizados comparando fio dental versus controle? 

Ainda no carro, tentei pesquisar no iPhone, quando parado no semáforo, mas não deu tempo. Ao chegar em casa, fui direto para o computador e pesquisei no Medline: "dental floss", filtrado por "Systematic Reviews". Nem especifiquei desfecho ou populacão de interesse, dada a curiosidade. Me surpreendi, pois o primeiro artigo que me aparece é uma revisão sistemática da Cochrane, que selecionou apenas ensaios clínicos randomizados. Estes trabalhos tiveram o cuidado de incentivar a escovação em ambos os grupos.

Resultado: fio dental não reduz a placa bacteriana!!! 

Observem abaixo que foram 6 estudos que avaliaram este desfecho após 1 mês de tratamento, 5 não mostraram efeito e apenas um mostrou efeito. O efeito sumário da meta-análise mostra uma diferença média padronizada de - 0.23, porém intervalo de confiança no nível 95% envolvendo ao zero (-0.52 a 0.06). 


Três trabalhos que avaliaram 6 meses de uso de fio dental, sendo todos negativos e a diferença média padronizada da placa bacteriana não foi estatisticamente significante = - 0.06 (95% IC = - 0.23 a 0.12).




OBS: Neste ponto, vale a pena explicar o que é diferença média padronizada. Observe que aqui estamos com uma meta-análise de trabalhos que avaliam o efeito de uma intervenção em um desfecho numérico, representado por alguma (s) escala (s) de placa bacteriana. O tamanho do efeito do fio dental seria representado pela diferença entre as medias da placa bacteriana nos dois grupos. No entanto, em meta-análises pode ser que diferentes trabalhos utilizaram diferentes escalas. Sendo assim, é necessário uniformizar as escalas, para que o efeito possa ser compilado. Essa uniformização é denominada padronização (standardization), sendo feita pela divisão do valor absoluto da diferença pelo desvio-padrão daquela medida no estudo. Agora não importa mais a medida absoluta, mas sim quantos desvios-padrão um grupo difere do outro. Esta técnica também é utilizada quando o valor absoluto da escala não tem grande significado, preferindo-se a medida de quantos desvios-padrão estas diferem. De fato, para mim que não sou dentista e não entendo muito dessas medidas de placa bacteriana, fica mais fácil olhar a diferença média padronizada. Quanto esta diferença é > 0.8, considera-se uma tamanho de efeito significativo; quanto < 0.5 considera-se algo de pequena relevância.

Os resultados relativos a gengivite foram um pouco melhores. A diferença média padronizada foi - 0.71 (95% IC = -1.09 a -0.35) nos estudos de 6 meses. Conforme enfatizado em nossa última postagem, é importante avaliar os limites do intervalo de confiança, considerando a pior hipótese. Observem que embora - 0.71 possa significar um efeito moderado, o limite superior do intervalo de confiança é - 0.35, o que representa um efeito pequeno. Além disso, deve-se considerar o que diz a revisão sistemática a respeito do risco de viés dos estudos. Foram 4 estudos que fizeram essa avaliação aos 6 meses, porém 3 classificados como qualidade unclear e um como alto risco de viés. Sendo assim, fica questionável a veracidade deste achado. Vejam abaixo o forrest plot da gengivite.



Quanto à incidência de cárie, que seria um desfecho mais duro, a revisão sistemática demonstrou que não existem estudos para este desfecho. 



Desta forma, fica evidente a dissociação entre a importância dada a esta recomendação e ao nível de evidência a este respeito.

Cada vez mais me impressiono como nossa percepção do universo é influenciada por fatores de confusão. No cotidiano, dentistas de fato percebem melhores condições dentárias nas pessoas disciplinadas no uso do fio dental. Porém a questão é se a melhor condição dentária é causada pelo fio dental ou se este hábito é apenas um marcador da qualidade da escovação dentária. Para saber isso, precisamos olhar o mundo sob o filtro da observação científica. Esse filtro ajusta para fatores de confusão. A randomização garante que as pessoas em uso de fio dental sejam iguais ao grupo controle. Anula-se portanto o efeito da escovação, fazendo desaparecer o benefício do grupo fio dental, que parecia ocorrer no mundo real, porém era mediado pelo efeito de confusão de uma melhor escovação.

Exemplos como este, que mostram importante dissociação entre o que observamos no cotidiano e o que se observa em ambiente controlado cientificamente, reforçam uma das funções da ciência: discriminar entre viés e causa (a outra é discriminar entre acaso e causa). 

O problema é que a gente já chega acreditando na causalidade e utilizamos estas associações para validar nossas crenças (viés de confirmação).

Importante lembrar que estes estudos não estão testando higiene bucal versus não higiene bucal. Lembro que os dois grupos escovaram os dentes, provavelmente de forma bastante adequada. O que está se avaliando é se o fio dental tem benefício incremental à boa escovação.

E como fazer agora? Deixar de lado o fio dental? 

Minhas sugestões:

Em primeiro lugar, na próxima vez que seu dentista enfatizar a necessidade de fio dental, pergunte ele: qual o nível de evidência de sua recomendação? Caso ele vacile, seja mais específico: há ensaios clínicos randomizados comprovando a eficácia do fio dental?

Em segundo lugar, se fio dental faz parte de uma prazerosa rotina em sua vida, continue, pois acho que este hábito tem valor como parte de um cortejo de cuidado pessoal. Por outro lado, se este é um hábito difícil para você manter, relaxe e se concentre em uma boa escovação dentária.

Percebam que estudos negativos posuem grande aplicabilidade prática, nos norteando quanto à possibilidade de uma escolha individualizada.

Mas se você é um dentista que acredita firmemente na hipótese do fio dental, continue investigando, faça ensaios clínicos randomizados maiores e melhores. Mas nunca se esqueça que o ônus da prova está na demonstração do benefício. Não podemos inverter essa lógica. Para adotarmos uma conduta, o que precisa ser demonstrado é o benefício. E não demonstrar ausência de benefício para que a conduta não seja adotada.   

Quanto a mim, manterei a qualidade de minha escovação e deixarei de perseguir a utópica utilização do fio dental. Usarei quando quiser, como quiser. E os minutos que me sobram, dedicarei a algo que seja relevante. 

Quanto ao meu dentista, este é meu amigo pessoal, deve estar lendo esta postagem agora e em poucos minutos devo receber sua ligação ...

sábado, 25 de outubro de 2014

Como calcular o intervalo de confiança do NNT


Na postagem sobre o estudo PARADIGM-HF, analisamos a medida pontual do número necessário a tratar (NNT) do LCZ696. Naquela oportunidade prometi que voltaria ao assunto a fim de discutir como avaliar a precisão da estimativa do NNT. Isto é importante, pois devemos nos condicionar a avaliar não apenas a medida pontual, mas também os limites do intervalo de confiança, os quais representam a estimativa na pior e na melhor hipótese. No contexto de um ensaio clínico, isso vale para as medidas do risco relativo, hazard ratio, risco absoluto e NNT.

Normalmente, o NNT não vem descrito pelos trabalhos, o que fazemos é calcular a redução absoluta do risco (subtraindo o risco de um grupo por outro) e fazendo 100/redução absoluta do risco = NNT. 

Mas como saber o intervalo de confiança do NNT ?

Em termos de precisão, o PARADIGM-HF nos forneceu apenas o intervalo de confiança do hazard ratio. Mas o bom é que podemos usar este para chegar ao intervalo de confiança do NNT. Sabemos que hazard é diferente de risco (postagem antiga - hazard leva em conta o tempo livre do evento e não apenas o evento), mas para simplificar usarei hazard ratio como se fosse um risco relativo para o cálculo que virá a seguir. 

O risco relativo foi de 0.80, com intervalo de confiança entre 0.73 e 0.87. Desta forma, podemos calcular o intervalo de confiança da redução relativa do risco (1 - risco relativo), que fica entre 13% (1 - 0.73) e 27% (1 - 0.87). 

O segredo para estimar o intervalo de confiança da redução absoluta de risco está em utilizar a incidência do desfecho no grupo controle, como representante do que seria esperado de risco sob o tratamento usual com enalapril (risco basal). Este risco no grupo controle foi 26.5%. 

Agora, para saber a redução absoluta de risco, devemos multiplicar a redução relativa de risco pelo risco basal. Por exemplo, se eu ganhar 50% de uma herança (relativo), para saber o valor que receberei, multiplico 50% pelo valor absoluto da herança (50% x 10.000.000 = me dei bem). 

No PARADIGM-HF, a pior hipótese da redução relativa do risco é 13%. Sendo assim, na pior das hipóteses, a redução absoluta do risco será de 3.4% (13% x 26.5%).
Na melhor das hipóteses, a redução relativa do risco é 27%. Sendo assim, na melhor das hipóteses, a redução absoluta do risco será de 7.2% (27% x 26.5%).

Portanto, o intervalo de confiança da redução absoluta do risco é 3.4% a 7.2%.

Agora vamos usar esse intervalo de confiança da redução absoluta do risco para saber o intervalo de confiança do NNT: 100/3.4% a 100/7.2%. Ou seja, enquanto a estimativa pontual do NNT é de 21 (tratamento de grande impacto) e seu intervalo de confiança fica entre 14 e 29. Observem que isso é preciso, pois na pior das hipóteses o NNT seria de 29, o que se considera um benefício relevante. Se fizermos essa análise para morte, o NNT seria de 30, com intervalo de confiança entre 21 e 55. Na pior das hipóteses a redução de mortalidade seria de magnitude moderada. 

Este estudo de grande tamanho amostral nos fornece uma satisfatória precisão do NNT. Lembro que embora o NNT sugira grande magnitude, este estudo tem problema sério de aplicabilidade pois não se definiu como um estudo de prova de conceito ou pragmático (vide postagem anterior).

Percebam que para realizar essa análise, pensamos se a pior hipótese do NNT ainda seria uma número razoável. Essa é a técnica, pensar sempre na pior hipótese.

De intervalo de confiança em intervalo de confiança (RR - RRR - RAR - NNT), terminamos por encontrar o intervalo de confiança do NNT. 

Agora vamos a outro exemplo, onde a medida pontual do NNT sugere grande impacto, porém o estudo não tem precisão. 

Em postagem antiga do Blog discutimos um ensaio clínico de apenas 76 pacientes com endocardite bacteriana e vegetação grande, que foram randomizados para cirurgia imediata ou tratamento conservador (cirurgia apenas se instabilidade). O trabalho mostra que a cirurgia precoce reduz o desfecho primário combinado de morte e embolia sistêmica de 23% (controle) para 3% (intervenção) - a custa apenas de redução de embolia. Observem que isso resulta em redução absoluta do risco de 20% (23% - 3%), o que dá um impressionante NNT = 5. 

Embora esta cirurgia seja de alto risco (paciente usualmente com quadro infeccioso ainda não controlado, muitas vezes instável clinicamente), um NNT de 5 nos motivaria a aventurar esta conduta. Porém devemos nos perguntar qual a precisão deste NNT = 5 ?

Observem que o hazard ratio do estudo é 0.10 (90% de redução do hazard), porém o intervalo de confiança deste hazard ratio vai de 0.01 a 0.82. Isto indica que a redução relativa do risco (hazard) é muito imprecisa, com intervalo de confiança de 18% a 99%. O risco basal (grupo controle) é 23%. Aplicando estas reduções relativas do risco ao risco basal, encontramos que a redução absoluta do risco pode ser tão grande quanto de 22.77% (99% x 23%) ou tão pequena quanto 4,14% (18% x 23%). 

Sendo assim, este NNT = 5 tem um intervalo de confiança variando de 4 (100/23) a 25 (100/4). Ou seja, é muito impreciso. E considerando a possibilidade de um NNT = 25 para prevenir um evento embólico (sem reduzir mortalidade), ficamos muito na dúvida se devemos arriscar complicações advindas de uma cirurgia em momento não ideal. Este é um exemplo de estudo pequeno não garantindo precisão suficiente do NNT.

Uma das utilidades de meta-análises é obter um intervalo de confiança do RR mais estreito e permitir melhor precisão do intervalo de confiança do NNT. Da mesma forma que os artigos, as meta-análises não trazem este dado, mas podemos calcular pelo intervalo de confiança do RR e pela medida basal do risco demonstrado da meta-análise.

Desta forma, fica a mensagem de que não devemos nos limitar à interpretação da medida pontual do NNT. Devemos ir além e interpretar o intervalo de confiança desta medida. Esta postagem teve o propósito de mostrar como fazer este cálculo (intervalo de confiança RR → RRR → RAR → NNT).



* Para análise de magnitude de efeito quando o desfecho é numérico, acesse esta postagem do Blog H1 Estatística

quarta-feira, 22 de outubro de 2014

Em que candidato a Medicina Baseada em Evidências votaria?


Se a medicina baseada em evidências fosse uma pessoa, ela procuraria para eleger um candidato que reconhecesse a incerteza de suas propostas. Isso mesmo, pois ciência é em primeiro lugar reconhecer as incertezas, fazer as perguntas certas e procurar responder estas questões com base em experimentação. 

A medicina baseada em evidências votaria no candidato que entendesse a complexidade dos problemas, considerasse que soluções criadas com base em lógica são incertas, e propusesse ensaios que comparassem estratégias. Por exemplo, o problema da saúde. Um candidato científico apresentaria três possíveis soluções, que seriam alocadas em diferentes cidades por processo de randomização em cluster. As estratégias seriam avaliadas quanto à melhora de um desfecho primário definido de forma objetiva o suficiente para evitar o viés político de aferição. Após identificada a estratégia de melhor eficácia, esta seria implementada nas demais regiões do país. Claro que neste processo o governo deveria avaliar aplicabilidade, ou seja, até que ponto aquela evidência aplicada a uma cidade terá o mesmo resultado em outra cidade. Avaliaria eficácia e efetividade. Seria um governo embasado em evidências. 

A medicina baseada em evidências também votaria em um candidato cuja equipe realizasse revisões sistemáticas de relatos bem e mal sucedidos, procurando gerar fontes secundárias de evidências que norteariam suas ações.

A medicina baseada em evidências votaria em um candidato que utilizasse o paradigma da racionalidade, do less is more, concentrando os recursos disponíveis em medidas de maior custo-efetividade e utilidade.

O problema é que parece não existir este candidato. Incertezas nunca são reconhecidas, propostas são feitas de forma presunçosa, promete-se tudo e mais um pouco de forma demagógica, nunca sendo mencionada a racionalidade das escolhas, a boa aplicação dos sempre finitos recursos.

Na ausência de preditores de um governo embasado em evidências, ficamos em território de incerteza de qual seria o candidato ideal. Reconhecendo esta incerteza, a solução seria randomizar uma amostra de Brasis para Dilma ou Aécio, verificando o resultado de cada um dos candidatos em desfechos duros, tais como os parâmetros relacionados à educação, saúde, corrupção, infraestrutura. Porém não temos uma amostra de vários Brasis. Temos apenas um Brasil. 

Daí me ocorreu a solução de realizar um ensaio clínico do tipo N = 1. Em certas circunstâncias, este é um desenho aceitável, aplicável quando precisamos de uma evidência para um paciente em particular, sendo este o mesmo paciente a ser testado no experimento. Em ensaios clínicos N = 1, uma primeira estratégia é implementada (estratégia A), depois trocada pela estratégia B, comparando-se o momento do paciente quando estava com a estratégia A versus B (desenho quasi-experimental - antes e depois). Imaginem dois analgésicos oferecidos desta forma a um paciente, sendo que o analgésico que melhor sedou a dor seria o escolhido par uso crônico.

Lembra alguma coisa? Sim, lembra o Brasil que tem problemas crônicos e já realizou a primeira etapa do ensaio N = 1. Caso julguemos que o país está indo bem, torna-se dispensável transitar para a estratégia B. Caso julguemos que o problema clínico persiste, devemos prosseguir o ensaio clínico e cruzar as estratégias. É uma questão de julgamento.

Assim faria a medicina baseada em evidências se ela fosse um eleitor.

A mente científica não vota com base em fanatismo ou crença. Não permite que vieses de confirmação nos façam cegos em relação a qualquer um dos lados. Evita um mundo de fantasia, reconhece a incerteza de nossas impressões, sabe que nossa percepção tende a ser enviesada por nossos preconceitos.

domingo, 12 de outubro de 2014

“Não há evidência para tudo”


Esta é uma das frases mais utilizadas por quem sofre do Complexo de Deus e deseja ter a liberdade de definir condutas médicas com base em crenças. Como não há evidência para tudo, podemos fazer quase tudo.

Às vezes esta afirmação vem quantificada, dando ainda mais força ao complexo: "apenas 30% das condutas necessárias possuem evidências". Porém, isto é um grande equívoco.

Na realidade, ao utilizar sequencialmente os princípios da medicina baseada em evidências, concluiremos que muitas das condutas correntes não deveriam ser praticadas, enquanto haverá respaldo para as condutas que devem ser utilizadas. Vamos ver.

Primeiro, o princípio da hipótese nula diz que devemos partir da premissa de ausência do fenômeno e só considerar algo como verdadeiro após devida demonstração científica. Este é um princípio científico básico, essencial para a organização do pensamento e prevenção de falsas afirmações. Portanto, muitas das condutas que se faz, não deveriam estar sendo feitas. Estas não devem ser computadas no percentual de condutas necessárias, porém sem evidências.

E dentre as condutas que devem ser adotadas? Essas possuem 3 tipos de justificativas. A primeira é exatamente a rejeição da hipótese nula por um estudo válido e relevante, realizado em amostra populacional e realidade semelhante à de nosso paciente. Estão são evidências diretas, que justificam aproximadamente 30% das condutas corretas. 

Em segundo lugar, entra o princípio da complacência, o qual orienta a utilização de evidências indiretas. O processo ocorre da seguinte forma: um trabalho científico tem a função de gerar a prova de conceito. Uma vez provado o conceito (por amostra populacional e método específicos para prevenção de erros aleatórios e sistemáticos), este deve ser individualizado para uma gama mais ampla de pacientes e realidades práticas; desde que não haja uma grande razão para que não se  aplique a seu paciente ou à sua realidade. 

Quando utilizamos beta-bloqueador para o tratamento da insuficiência cardíaca em um paciente de 85 anos, estamos aplicando o princípio da complacência, pois este paciente foi pouco (ou não foi) representado pelos estudos que validaram este tratamento. Esta é uma evidência indireta para o nosso paciente, como ocorre em boa parte dos casos. O que precisamos julgar é se há incerteza suficiente para limitar a aplicação do conceito. Por exemplo, aos 95 anos, a evidência fica mais indireta, aos 105 anos mais indireta ainda, e nossa reflexão precisa ser mais ponderada na aplicação do conceito. Se há razão para moderada incerteza, devemos ficar com a hipótese nula e não utilizar a evidência indireta. 

Este princípio se baseia no fato de que interação entre tipo de paciente e efeito da conduta é um fenômeno raro. Ou seja, uma vez demonstrado um benefício, este se reproduz na maioria das situações. Observem como acontece com as análises de subgrupo de estudos positivos. Normalmente, todos os subgrupos reproduzem o resultado. 

Outra grande equívoco de pensamento ocorre na forma de utilização da conduta. Imaginem que um estudo utilizou uma dose fixa de beta-bloqueador, pela necessidade de cegar o médico (prevenção de viés), não permitindo que a dose fosse ajustada. Uma vez provado o benefício, não somos obrigados  a utilizar aquela mesma dose do beta-bloqueador em todos os pacientes (copiar o artigo). O certo é se nortear pelo conceito provado pelo artigo e individualizar a dose do beta-bloqueador para diferentes tipos de pacientes. Ao usar uma dose reduzida em um paciente com frequência mais baixa ou uma dose aumentada em um paciente com frequência mais alta, estamos aplicando uma evidência indireta (dose intermediária). Neste caso, esta é a melhor forma de fazer.

Medicina baseada em evidências não é copiar o artigo científico; medicina baseada em evidências é individualizar para o paciente um conceito demonstrado no artigo científico.

Sendo assim, evidências indiretas quanto ao tipo de paciente ou forma de aplicação justificam em torno de 40% de nossas condutas. Neste ponto, já cobrimos 70% das condutas médicas. 

E os 30% restantes?

Estes são justificados pelo princípio da plausibilidade extrema. Estas são situações incontestáveis que devemos adotar a conduta. Seria anti-ético realizar um ensaio clínico. O melhor exemplo é o uso do paraquedas em indivíduos que pulam de um avião. Esse dispositivo reduz mortalidade e sabemos disso sem realizar um ensaio clínico. Desfibrilar um paciente cujo monitor mostra fibrilação ventricular. Faríamos um ensaio clínico para esta situação? Claro que não. Plausibilidade extrema é algo que incontroverso, ninguém teria uma opinião contrária. Esta é a evidência do óbvio. 

Dentro deste princípio, existem também as condições de curso clínico inexorável. Na década de 80, o neurocirurgião Ben Carson "curou" uma criança epiléptica, que sofria 30 convulsões ao dia e já tinha tentado todos as medicações possíveis. Ele realizou a retirada de todo o hemisfério cerebral esquerdo da criança, interrompendo as convulsões e deixando poucas sequelas. Esta é uma condição diferente da do paraquedas, pois havia pouca garantia de sucesso. Mas a garantia estava no insucesso de não tentar nada. Esta é uma variação do princípio da plausibilidade extrema. Mas cuidado para não generalizar este exemplo e achar que em toda situação inexorável devemos adotar condutas livremente. Precisamos também evitar condutas fúteis.

Sendo assim, diante de um problema clínico, devemos raciocinar qual princípio se aplica. Se for plausibilidade extrema, deve-se adotar a conduta. Do contrário, aplica-se o princípio da hipótese nula, utilizando evidências diretas ou indiretas (princípio da complacência) para respaldar as decisões. Na ausência de evidências de qualidade, devemos evitar a conduta. 

Fica assim demonstrado que condutas corretamente indicadas são respaldadas pelo raciocínio médico baseado em evidências. Enquanto parte das condutas não deveriam ser indicadas, pois representam o Complexo de Deus propondo tratamentos embasados em lógica, mentalidade do médico ativo ou conflitos de interesse. 

Portanto, quando ouvirem alguém usar a frase “não há evidência para tudo”, desconfiem do Complexo de Deus.

domingo, 5 de outubro de 2014

O Complexo de Deus



Esta semana estive em Campos de Jordão, para proferir uma Keynote Lecture no International Back Pain Forum (Simplifying the Complex and Complicating the Simple). Este é um evento que reúne cientistas em dor lombar de diversas partes do mundo. Setenta por cento dos participantes eram estrangeiros, predominando Austrália, Reino Unido, Dinamarca, Holanda, de acordo com minha estatística visual. Chamo a atenção desta estatística, pois me pareceu predominar países onde se exerce uma medicina mais racional e socializada. Fico otimista quanto interajo nestes ambientes, onde percebo que os princípios da medicina baseada em evidências de fato fazem parte do consciente ou inconsciente coletivo. 

Na semana anterior, aconteceu em Brasília o Congresso Brasileiro de Cardiologia. Este é um ambiente em que percebo grande avidez por parte dos cardiologistas por discussões reflexivas e baseadas em evidências. Isso também me deixa otimista, vejo um futuro promissor, estamos evoluindo. No entanto, em contraste com o ambiente científico de Campos de Jordão, o Complexo de Deus ainda é muito prevalente no meio cardiológico, principalmente por parte dos “formadores de opinião”. 

Leonardo Costa, organizador do evento em Campos, me pediu para retratar como os princípios científicos influenciam (ou não) o raciocínio cardiológico, para fazer um paralelo com a realidade deles. Sendo assim, o tema de minha conferência foi o Complexo de Deus, cujo conteúdo está apresentado na postagem abaixo.



O Complexo de Deus

O maior obstáculo para a implementação dos princípios da medicina baseada em evidências é o Complexo de Deus. Esta enfermidade psicológica de alta prevalência entre médicos é caracterizada pela presunção de que podemos inventar condutas baseadas em lógica e considerá-las benéficas sem  testá-las devidamente. 

O Complexo de Deus é promovido pela ignorância de dois fatos importantes: a incerteza do pensamento lógico e a existência de fenômenos ilusórios no universo. 

A Incerteza do Pensamento Lógico

Como serem humanos, temos uma tendência natural a acreditar, muito mais do que duvidar. Assim evoluiu nossa mente ao longo destes 200.000 anos. Nos primórdios na humanidade, nossa característica crente foi necessária para um entendimento inicial do universo e por questões de sobrevivência de nossos ancestrais. Naquela fase, não havia conhecimento coletivo organizado, o que obrigava nossos ancestrais em acreditar e aplicar qualquer coisa. Algumas davam certo e eles iam começando a entender o universo e encontrando soluções para coisas básicas. O mundo evoluiu, hoje entendemos o universo de forma mais profunda e não há mais sentido em ser crente. Porém nossa mente evoluiu de forma crente e permanece com esta característica que um dia teve razão de ser.

Além deste tropismo pela crença, nosso raciocínio evoluiu de forma cartesiana. Geralmente pensamos em uma ou duas causas e planejamos intervir nessas poucas causas como forma de solucionar nossos problemas. O que não nos damos conta é que o mundo é formado de sistemas complexos, especialmente o mundo biológico. Um sistema complexo pode ser definido como aquele no qual o desfecho é resultado de um multiplicidade de causas, que interagem entre si de forma imprevisível, tornando impossível garantirmos o efeito de uma intervenção com base em nossa lógica. Isto promove a incerteza do pensamento lógico

O problema é que não nos damos conta disso e nossa mente crente nos faz confiar cegamente nas predições lógica. Em medicina, são inúmeros os pensamentos lógicos (plausibilidade biológica) que são negados quando propriamente testados. Inúmeras postagens deste blog contam essas histórias. 

Uma vez acreditando fortemente em nossa lógica, um outro processo cognitivo se encarrega de validar nossa crença: o viés de confirmação.

Imaginem que eu acredite que a posição de uns planetas no momento do nascimento define a personalidade das pessoas (astrologia). Não é difícil olhar ao meu redor e encontrar dentre meus amigos pessoas cuja personalidade coincidem com seu signo. Ao encontrar essas pessoas, registro mentalmente estes casos e minha crença é validada. Por outro lado, não registro os casos em que a personalidade não coincide com o signo. Isso é o processo natural de memória seletiva pelo qual o viés de confirmação atua. Ou seja, o viés de confirmação se aproveita das coincidências (acaso) para validar nossas crenças. 

Percebam como nossa mente nos engana. Como dizia Kant, a percepção do universo não depende apenas dos sentidos, resulta da interação dos sentidos com nossa mente (nossas crenças). Vemos o que queremos ver. 

Para corrigir este processo crente, existe a ciência. Sim, a função da ciência é diferenciar causa de acaso. Se as personalidades fossem causadas mesmo pelos astros, haveria mais acertos do que erros por parte dos astrólogos. Bem, isso foi testado. Em 1985, foi publicado na Revista Nature um  elegante estudo, no qual os astrólogos acertaram de forma cega a personalidade de parte dos indivíduos. No entanto, erraram na mesma proporção. Em suma, não houve associação estatisticamente significante entre mapa astral e personalidade. Pronto, está apropriadamente testado e a crença está desconstruída por uma observação não enviesada do universo. 

Isto ocorre o tempo todo com condutas médicas, que entram na rotina clínica com base na crença lógica, e depois estudos apropriados mostram que estas nunca deveriam ter sido adotadas. Tudo isso decorre do nosso Complexo de Deus, que nos impede de reconhecer a incerteza do pensamento lógico.

Fenômenos Ilusórios no Universo

Outro mecanismo mediador do Complexo de Deus é a ignorância de que o mundo a nossa volta é  repleto de associações que parecem, mas não são, causais. Já comentamos neste Blog uma associação verdadeiramente existente e estatisticamente significante entre consumo de chocolate per capita e conquista de prêmio nobel por países. Difícil pensar nesta como uma associação causal, muito provavelmente isto decorre de vies de confusão, ou seja, variáveis associadas ao consumo de chocolate e às premiações, promovendo uma ligação ilusória entre estas duas coisas. 

Assim se acreditou que vitaminas tinham efeito anti-cancerígeno, efeito não confirmado quando avaliado por desenhos de estudos que ajustam para variáveis de confusão (ensaios randomizados). Isto demonstra o segundo papel da ciência, que é diferenciar causa de viés. 

Diferenciando causa de acaso e causa de viés, a ciência discrimina mito e realidade

No entanto, nosso Complexo de Deus nos faz desconsiderar a incerteza do pensamento lógico e a existência de fenômenos ilusórios presentes no universo. Preferimos acreditar em nossas crenças. Preferimos instituir terapia de hipotermia pós-parada baseada em crença falsamente validada por fenômenos ilusórios promovidos por dois estudos repletos de vieses. E mesmo depois de um estudo apropriado ter demonstrado a ausência de benefício, as pessoas continuam propondo este tratamento, com base em subterfúgios de pensamento. Como gosto deste exemplo ...

Mesmo depois da ciência demostrar ausência de benefício, continuamos a dilatar coronárias de pacientes assintomáticos, com base na crença lógica de que é sempre bom desentupir o que está entupido. 

E continuamos a afirmar enfaticamente que exercício físico previne eventos cardiovasculares maiores, mesmo depois da negatividade do estudo LOOK-AHEAD

O problema é o que Complexo de Deus traz prejuízos clínicos, financeiros e culturais. Um dos grandes prejuízos que experimentamos recentemente foi a vexatória derrota de 7 x 1 contra a Alemanha, na Copa do Mundo dentro do Brasil. Sim, isso decorreu da crença de que éramos um bom time, de que iríamos ganhar aquele jogo e a copa do mundo. Se uma visão realista sobre aquele time estivesse presente, o Brasil entraria no jogo de forma defensiva, retrancada. Poderíamos até perder, porém não da forma como ocorreu. Assim fizeram brilhantemente nossos irmãos argentinos.

Somos assim, sofremos do Complexo de Deus. Nossa presunção impede que evidências científicas tenham um papel de protagonista na construção de nossas ideias. O Complexo de Deus torna o homem dogmático, acredita por acreditar. Ou acredita motivado por conflitos de interesse. 

Nosso raciocínio lógico deve servir para a geração de hipóteses a serem testadas cientificamente, diferenciando associações causais de acaso ou viés. O pensamento científico propõe uma posição de humildade do homem perante os fenômenos do universo.

O cientista é humilde. O crente é dogmático. Como profissionais, queremos ser humildes ou dogmáticos?

sábado, 6 de setembro de 2014

PARADIGM-HF: o entusiasmo é proporcional à evidência?



No início desta semana, foi apresentado no Congresso Europeu de Cardiologia e simultaneamente publicado no New England Journal of Medicine o ensaio clínico PARADIGM-HF. A comunidade cardiológica tem considerado esta a mais importante notícia das últimas duas décadas quando se trata de insuficiência cardíaca. O entusiasmo a respeito deste estudo se deve ao fato de que, pela primeira vez em 20 anos, um tratamento mostra redução adicional de mortalidade em pacientes com insuficiência cardíaca. 

O PARADIGM-HF testa uma droga denominada LCZ696. Este que se parece nome de uma engenhosa molécula, na verdade é a combinação do velho valsartan com uma nova droga denominada sacubritil. Este sacubritil inibe a ação do neprilysin. O neprilysin age degradando boas moléculas, como peptídeo natriurético e bradicinina. Quando inibimos o neprilysin, aumentamos a concentração dessas boas moléculas, que têm ação vasodilatadora e natriurética. 

Antes do nos definirmos entusiasmados com o LCZ696, precisamos analisar o trabalho e determinar o nível de evidência em que este se encaixa. Determinado o nível de evidência, discutiremos a força de recomendação deste tratamento. O entusiasmo deve ser diretamente proporcional ao nível de evidência e força de recomendação. 

Começando pelo nível de evidência, este depende de três fatores: veracidade, relevância e aplicabilidade da informação.

Adianto que o grande diferencial desta postagem estará na análise de aplicabilidade. Mas antes de chegar lá, temos que passar por veracidade e relevância. 

VERACIDADE

Como sabermos, dois fatores podem interferir na veracidade da evidência: erros sistemáticos (vies) e de erros aleatórios (acaso). 

Em análise sistematizada, percebemos que o estudo tem baixo risco de viés: randomizado (evita viés de confusão), duplo-cego (evita viés de desempenho e viés de aferição do desfecho), análise por intenção de tratar (preserva a homogeneidade da randomização), pequena perda de follow-up. 

Quanto ao erro aleatório, este é um estudo com adequado poder estatístico e sem situações que reduziriam confiabilidade do valor de P: as conclusões positivas são baseadas em desfecho primário e em toda a amostra do estudo (em vez de desfechos secundário ou análise de subgrupo). 

Resta uma preocupação, que poderia reduzir a precisão dos achados: este foi um estudo truncado, o que predispõe a superestimava do benefício ou simulação de um falso efeito da droga. Salientamos, no entanto, que neste caso o truncamento não foi crítico. Já mencionamos neste Blog que quando mais de 500 desfechos são alcançados pelo estudo, o truncamento não implica em superestimativa do efeito do tratamento. Quando o PARADIGM-HF foi interrompido, todos os pacientes já tinham sido incluídos, apenas o follow-up teve uma redução de tempo. Assim, o estudo alcançou 2.031 desfechos, o que preserva sua veracidade a deleito do truncamento.

Sendo assim, este estudo tem validade interna, ou seja, o que observamos aqui não é resultado de ilusões causadas por viés ou acaso. É verdadeiro.

RELEVÂNCIA (IMPACTO)

Agora o próximo passo é avaliar o quanto este (verdadeiro) benefício é relevante. Quando ao tipo de desfecho, este foi o combinado de morte cardiovascular e internamento, ou seja, os dois mais importantes desfechos em insuficiência cardíaca. Na próxima postagem, usarei o PARADIGM-HF como exercício para analisar detalhadamente a medida pontual de impacto e sua precisão. Mas nesse momento quero ser mais prático e vou direto ao NNT: 21 pacientes precisam ser tratados para prevenir um desfecho primário (morte ou internamento) e 30 pacientes precisam ser tratados para prevenir uma morte. O que se observa é um tratamento de bom impacto na redução dos desfechos. 

Assim, o estudo é intrinsecamente verdadeiro e de resultado relevante. Vamos então pensar na aplicabilidade.


APLICABILIDADE

Agora, de posse da informação científica, precisamos olhar para nossa realidade e avaliar o quanto aplicável é a conclusão do trabalho. É a transição da validade interna do estudo (veracidade) para a validade externa de suas conclusões. 

Neste tópico, apresento o importante conceito de evidência científica indireta. Uma evidência pode ser indireta em relação a dois principais aspectos: tipo de paciente e forma de aplicar o tratamento. 

O princípio da complacência determina que evidências verdadeiras podem ser extrapoladas para populações ou formas de aplicação diferentes, desde que não haja uma grande razão para se acreditar que a extrapolação não dará certo. Por exemplo, quando usamos inibidor da ECA e beta-bloqueador na criança com insuficiência cardíaca, estamos extrapolando o conhecimento de grandes ensaios clínicos realizados em adultos. Fazemos isso pois não há uma grande razão para acreditar que o resultado será diferente. 

Observem que quando usamos o princípio da complacência, estamos adotando uma evidência indireta, pois esta não foi testada exatamente em quem faremos ou como faremos. Este princípio se baseia no fato de que interação (modificação de efeito de acordo com população ou circunstância) é um fenômeno raro.  O mundo funciona assim. 

No entanto, precisamos salientar que apesar de podermos extrapolar em certas situações, devemos reconhecer que quanto mais indireto é o trabalho em relação à nossa realidade, menor o nível de evidência. Ou seja, indirecteness é um dos critérios na definição do nível de evidência. Na medida em que trabalho vai se tornando mais indireto, mais se distancia da garantia de reprodutibilidade e o nível de evidência vai caindo. 

Por exemplo, parece adequado aplicar beta-bloqueador em um idoso de 80 anos com insuficiência cardíaca, mesmo que os trabalhos clássicos tenham 65 anos como média de idade. Porém, na medida em que a idade vai aumentando, mais indireta fica a evidência e mais dúvida nós temos da aplicabilidade. Será que o paciente de 100 anos com insuficiência cardíaca deve usar beta-bloqueador?

Vamos agora avaliar o quanto a evidência do PARADIGM-HF é indireta em relação à nossa realidade. Como falei, duas são as formas de um dado ser indireto: tipo de paciente e forma de aplicar o tratamento. 

Primeiro, vejamos tipo de paciente. Este é o primeiro grande teste do sacubritil, não só quanto à eficácia, mas também quanto à segurança e tolerabilidade. No entanto, este estudo tem uma peculiaridade, que é uma fase de run-in, ou seja, antes de serem randomizados, os dois tratamentos foram testados e só entraram no estudo os pacientes que toleraram o tratamento. Portanto só vemos aqui o resultado de pacientes selecionados para tolerarem a droga, o que reduz a validade externa do estudo quanto à segurança. E também quanto à eficácia, pois no princípio de intenção de tratar, má tolerância reduz eficácia. Ou seja, não estamos vendo o resultado testado em uma amostra que de fato representa a população. É uma amostra selecionada. Interessante notar que essa fase de run-in não é habitual em ensaios clínicos de fase III.

Desta forma, quando formos aplicar este benefício em nossos pacientes, teremos dúvida se o resultado seria o mesmo. Será que nosso próximo paciente não corresponde a um daqueles que nem entraram no estudo, pois não se dariam bem com a droga? 

Observem que isso não compromete a veracidade do estudo quanto ao tipo de paciente estudado  (baixo risco de viés), mas a superseleção pode ter distanciado o paciente do estudo do nosso paciente. Esta fase de run-in tornou a evidência indireta quanto ao tipo de paciente.

Quando observamos a tabela de características clínicas, vemos que são pacientes predominantemente em classe funcional II, com pressão sistólica de média de 120 mmHg. Ou seja, são pacientes compensados, estáveis, sem tendência a hipotensão, capazes de suportar os 320 mg de valsartan. Mas uma vez, é um amostra selecionada para que a terapia não gere problemas. Temos que ficar cientes disso. 

Mas é no segundo modo de evidência indireta que está o maior problema deste estudo: aplicação da terapia. Quando surge uma nova intervenção candidata a incrementar um tratamento padrão, esta nova terapia deve ser comparada a um grupo controle (sem a terapia), sendo que o grupo intervenção e controle devem fazer o mesmo tratamento padrão otimizado. Ou seja, o correto é comparar intervenção + tratamento padrão ideal versus tratamento padrão ideal. 

O que fez o PARADIGM-HF? Estranhamente, o tratamento padrão do grupo sacubritil foi melhor do que o tratamento padrão do grupo controle. Ou seja, na amostra o estudo, o grupo sacubritil objetivou um bloqueio do sistema angiotensina-aldosterona em dose máxima (valsartan 320 mg/dia), comparado ao grupo controle, que utilizou metade da dose máxima de enalapril (20 mg/dia, de forma fixa). 

Os autores mencionaram que usaram valsartan no grupo sacubritil (ao invés de IECA), pois a associação de inibidores do neprylisin com IECA causaria muito angioedema. Deram duas referência que suportariam esta afirmação: os estudos OCTAVE e OVERTURE, que testaram omapatrilato, um desses inibidores. Tive o cuidado de olhar estes estudos e nenhum deles testou associação do omapatrilato com IECA, apenas compararam os dois. E por falar nisso, a frequência de edema foi inferior a 5%. Portanto, me parece que inventaram uma justificativa para usar tratamento padrão diferente nos dois grupos. Mas mesmo que usassem drogas diferentes, que pelo menos usassem doses equivalentes. Porque usar dose máxima de valsartan do grupo sacubritil versus metade da dose de enalapril no grupo controle? A coisa fica tão confusa que pode passar desapercebida. Se pensarmos com calma, usaram drogas diferentes, pois assim o uso de doses diferentes ficaria menos evidente. 

Não importa que 20 mg/dia é a dose média de enalapril de estudos prévios (como foi mencionado pelos autores), o que importa é na amostra que está testando um a hipótese em questão, o grupo intervenção foi melhor tratado do que o grupo controle. Isso fica confirmado pela pressão sistólica mais baixa no grupo intervenção. 

Portanto, há duas possibilidades para explicar a redução de mortalidade no grupo do sacubritil: (1) a droga de fato reduz mortalidade; (2) a droga não tem efeito e o que estamos vendo é o benefício de um bloqueio mais efetivo do SRAA. Ficará sempre esta dúvida. 

MECANICISTA versus PRAGMÁTICO

Um estudo pode ser mecanicista ou pragmático. No primeiro caso, deseja-se demonstrar um conceito, por exemplo, sacubritil reduz mortalidade? No segundo caso, não importa o conceito, só precisamos saber o resultado prático: LCZ696 é melhor que enalapril 20 mg/dia?

Em um estudo mecanicista, o que acaba de ser discutido deve ser considerado um viés, ou seja, algo que falseia o resultado. Podemos optar por este caminho e invalidar estes trabalho.

Ou podemos interpretar o estudo como pragmático. Neste caso, esse problema não é um viés, é um problema de aplicabilidade. Um estudo pragmático não está analisando o mecanismo, está apenas testando a hipótese de que o LCZ 696 (sacubritil + Valsartan máximo) é superior a enalapril meia boca. E isso ficou demonstrado neste estudo, com baixo risco de vies.  

Acreditando na veracidade deste pragmatismo, precisamos analisar o quanto a comparação aqui realizada é indireta em relação a nossa realidade. Parece-me pelo menos moderadamente indireta, pois meus pacientes de CF II, PAS = 120 mmHg e boa função renal estão usando dose máxima de IECA e não metade da dose. Sendo assim, eu não tenho certeza de que o tal LCZ será melhor que o IECA de meu paciente. 

E se meu paciente estiver com uma dose mais baixa de enalapril, mas está evoluindo muito bem nos últimos anos, devo trocar pelo valsartan dose máxima + sacubritil? E se este paciente meu for um dos que seriam excluídos na fase de run-in, pois não tolerariam a hipotensão do LCZ696?

De acordo com o princípio da complacência, evidência indireta pode ser aplicada, porém quanto mais indireta, menor o nível de evidência. Sem a análise de aplicabilidade, classificaríamos o nível de evidência deste estudo pragmático como alto. Porém, após considerar o caráter indireto deste trabalho, devemos reduzir o nível de evidência para moderado.

Não temos aqui a evidência de melhor qualidade, o que torna menor sua influência em nossa conduta. A partir deste diagnóstico, discutiremos o nível de recomendação do LCZ696.

NÍVEL DE RECOMENDAÇÃO

Como recomendar um moderado nível de evidência? Neste momento, entra a utilidade do que é proposto pelo critério GRADE: definir a recomendação em forte ou fraca. A recomendação forte é a que deve ser feita em todos os paciente possíveis. Por exemplo, uso de IECA na insuficiência cardíaca. A recomendação fraca é a que deve ser ponderada caso a caso. 

Portanto, baseado no moderado nível de evidência, a recomendação para usar o LCZ696 no lugar de IECA deve ser fraca. Ou seja, devemos ponderar as peculiaridades de nosso paciente, se este é um virgem de tratamento, se é um paciente que está se dando muito bem com o esquema tradicional, além de questão logísticas como custo da nova droga. 

E para quem ficou incomodado com minha fraca recomendação, é só pensar probabilisticamente. O que significa um NNT de 21 para redução de morte? Significa que ao trocar o IECA por LCZ696 nosso paciente tem apenas 5% (1/21) de probabilidade de se beneficiar. Nossos bons tratamentos não são panacéias, portanto antes de entrar com tanto entusiasmo, precisamos ponderar os aspectos aqui discutidos. 

O entusiasmo com o PARADIGM-HF está exagerado.