Etiquetado: ensayos clínicos

Influencia de los determinantes sociales de la salud en la validez externa de los estudios clínicos

Hace unos pocos días y gracias a Twitter (si, sirve para algo más que para perder el tiempo) tuve noticia del trabajo fin de grado de un médico novel: David Serantes. El titulo era atractivo, las diapositivas resumen no tenían mala pinta, pero lo que más me cautivo, es la pregunta con la que resumía y explicaba su trabajo:

¿Cómo íbamos a pretender que fuesen eficaces fármacos contra la artrosis, enfermedades cardiovasculares, etc. en pacientes que no salían de su casa por las barreras físicas de sus viviendas?

En las prácticas de atención primaria en el distrito madrileño de Usera, David se había percatado de que muchas de las vistas domiciliarias que hacía con su tutor era a pisos altos, en edificios sin ascensor (si, en Madrid, sobre todo en barrios como Usera, todavía hay muchos edificios sin ascensor). Esta situación es para muchos ancianos o enfermos, más que una barrera arquitectónica, una auténtica muralla que los confina prácticamente para toda su vida a vivir, entre las cuatro paredes de su modesto piso. Muchos hemos sido testigos de esta situación, peor hace más de treinta años cuando empezamos a trabajar, muchos hemos pensado que esos pacientes necesitaban más un ascensor que cualquier otra intervención o medicina que le pudiéramos administrar. Muchos no fuimos ni siquiera capaces de sorprendernos hasta el punto de escribir algo sobre ello. David, si y fruto de esa inquietud este trabajo que nos deja reproducir en este blog, con el único objetivo de que se difunda.

Muchas gracias a David por su gran trabajo, las criticas y objeciones se las haremos otro día y en otro post.

Influencia de los determinantes sociales de la salud en la validez externa de los estudios clínicos comparativos

por David Serantes Gómez @davserantes

ResumenPresentación diapositivasTexto completo

Este trabajo nace de una idea que me rondaba desde hace tiempo y que, creo, mucha gente se ha planteado alguna vez: ¿podemos trasladar los hallazgos de estudios clínicos que se llevan a cabo, por ejemplo, en hospitales de Nueva York a una población como la de Granada sin esperar ver cambios en los resultados de la intervención ensayada cuando se aplique en nuestro contexto? Cuando uno se hace esta pregunta es probable que lo primero que le venga a la cabeza es ver en qué grado estas dos poblaciones pueden diferir en variables como la edad, el sexo o las comorbilidades. Pero vayamos un poco más allá.

Supongamos que te preguntan si crees posible aplicar en la población de tu cupo los resultados de un estudio realizado para determinar la eficacia (en términos de reducción del dolor y mejora de la capacidad funcional) de un nuevo AINE de aplicación tópica sobre la gonartrosis. El estudio se llevó a cabo en tres hospitales de California y la muestra de pacientes tenía una edad media de 67 años, sin criterios muy restrictivos en cuanto a comorbilidades. ¿Ahora tienes menos reparos para creer que en tu comunidad dicho fármaco podría dar resultados similares a los observados en el estudio? A priori, no tendrías por qué.

Supuestamente, la metodología de los ensayos clínicos permite atribuir los resultados a la intervención que se testa, gracias a diversos procesos, desde la asignación aleatoria de las intervenciones hasta el ciego, etc. Se busca, en definitiva, que los brazos no presenten grandes diferencias que dificultasen arrogar los hallazgos exclusivamente a los diferentes tratamientos recibidos. Si esto fuese así -en la práctica surgen, claro, muchas limitaciones a este objetivo-, ¿por qué deberíamos recelar de aplicar fármacos que han sido evaluados en ensayos sobre poblaciones muy diferentes a la nuestra?

Dejemos un momento a un lado esta pregunta y miremos desde un poco más arriba. Lo que buscaría, en términos amplios, el ensayo clínico imaginado es contrastar una hipótesis causal relativa a la eficacia del nuevo AINE en pacientes con gonartrosis. Pero, una vez validada -contrastada estadísticamente- dicha hipótesis, ¿podemos esperar que se mantenga en diferentes contextos? En la práctica a menudo tomamos un atajo epistemológico y nos saltamos esta pregunta. Razonamos inductivamente, trasladando la hipótesis que creemos validada a otros contextos, sin examinar si las modificaciones introducidas por estos en la estructura causal de la hipótesis pueden modificarla. Pero esta transferencia no se puede deducir sobre reglas lógicas, pues obvia el problema de la extrapolación. Los presupuestos epistemológicos que subyacen a la Medicina Basada en la Evidencia favorecen este razonamiento al primar, a través de las jerarquías de la evidencia, la validez interna sobre la validez externa como criterio de graduación de la calidad metodológica de los estudios.

Retomemos la pregunta. ¿Resultados similares al aplicar el AINE tópico en tu población? Tal vez dudas, pero, como acabas de leer esto, pongamos que te preguntas qué factores podrían afectar a la estructura causal de la hipótesis sobre la eficacia del AINE. Quizá la edad pueda mediar diferencias farmacocinéticas que hagan que el fármaco se metabolice peor en tu población, pero el estudio había incluido pacientes bastante mayores, por lo que a priori no cabría esperar diferencias por ahí. De momento no ves más limitaciones. Además, una compañera de tu centro te ha dado algunas muestras que le ha ofrecido un visitador que le presentó el fármaco ayer y que le convenció bastante de que puede ser efectivo. Casualmente, hoy tienes tres domicilios y una de las pacientes a las que vas a ver es Carmen, que, aunque está bastante bien para su edad, tiene una gonartrosis que hasta el momento no ha respondido a otros AINEs. De hecho, ha ido progresando en el último año hasta limitarle bastante para cocinar y hacer la casa. Para colmo, vive sola en un quinto sin ascensor en Usera y desde enero no sale de casa -no por el confinamiento, sino porque ya le duele tanto caminar que no le compensa-. Ha entrado en el círculo vicioso del dolor-no moverse-más dolor-moverse aún menos. ¿Qué menos que por probar el fármaco nuevo? Por poco que le pueda hacer… (dejamos la prevención cuaternaria para otro momento)

Un mes después vuelves a visitar a Carmen. Ya no estamos confinados, pero ella sigue sin salir de casa -también podríamos decir que la casa no le deja salir-. “¿Qué tal las rodillas, le duelen menos?” Pues bueno, la primera semana parecía que algo hacía la pomada esa, pero estoy igual. “Vaya, probaremos otra cosa entonces.” Y piensas: sabía que ese estudio debía tener alguna trampa; esta tarde le echo un vistazo.

Y el estudio no parece tener grandes fallos metodológicos. Además, la población era bastante similar en sus características de base a la tuya. En las que registraba, claro. Porque te pones a pensarlo y te acuerdas del post ese que leíste sobre la extrapolación. Lo relees a ver si encuentras algo, pero el texto no decía nada (no hemos llegado todavía) de qué condiciones podían afectar a la posibilidad de extrapolar la evidencia a otros contextos, más allá de edad, sexo y comorbilidades, que en el estudio eran similares a las de tu población. Oye, ¿y si a Carmen no le funciona el AINE porque requiere, para hacer efecto, que se mueva? Quizá la mejoría del dolor inicial, unida a la posibilidad de salir de casa, generó en la población del estudio una retroalimentación positiva que en algunos casos pudo romper un poco el círculo vicioso que antes describíamos. Quizá como Carmen apenas se mueve, en ella el fármaco no difunde bien y ni siquiera llega al lugar donde ejerce su efecto. ¿Qué parte del efecto de este fármaco -o de otra intervención terapéutica- cabe atribuir a la propia terapia y qué parte se debe a las sinergias y antagonismos entre el fármaco y las condiciones materiales de esa persona que afectan a su patología?

Dejamos planteada la pregunta: ¿podrían afectar las diferencias entre las condiciones socioeconómicas de la población de un estudio y las de la población donde se aplicarán las conclusiones de dicho estudio a la posibilidad de extrapolar la evidencia de un contexto a otro?

David Serantes Gómez

Oro parece, plata no es….

Hace dos semanas, mi afición por el tema y este inocente tuit me llevo a leer el artículo al que se refería titulado: Effect of Gabapentin vs Pregabalin on Pain Intensity in Adults WIth Chronic Sciatica A Randomized Clinical Trial. ¡Craso error!, su lectura me sumergió en una serie de disquisiciones que probablemente no tengan mucho valor. En cualquier caso, voy a contarlas en esta entrada y para hacerlo de forma comprensible, las voy a separar en tres apartados:

  1. Conclusiones que importan para un clínico
  2. Virtudes y problemas metodológicos del estudio
  3. Repercusión en redes sociales de estudios con conclusiones inapropiadas y metodología mejorable.

1º) Lo primero es que hay que congratularse porque es un ensayo clínico head to head y cruzado (crossover). Es decir, un ensayo que en lugar de enfrentar un medicamento con placebo se contrapone a otro fármaco de tal modo, que podemos tener una comparación directa de la eficacia de ambos medicamentos. Esta comparacion se hace de forma cruzada, de tal forma que los pacientes reciben de forma secuencial los dos tratamientos.

La alegría se acaba cuando vemos que la enfermedad es la lumbociática crónica, en la que ambos fármacos no resultaron ser muy eficaces cuando se les comparo con placebo. Dos metanálisis (aquí y aquí) que sintetizaban los ensayos clínicos realizados hasta la fecha, encontraron poca o ninguna evidencia de la eficacia del uso de estos antiepilépticos en el tratamiento sintomático del dolor lumbar agudo o crónico. Dados estos beneficios, escasos o poco claros y el potencial de efectos adversos e incluso de dependencia, la cuestión seria si la Gabapentina y la Pregabalina tienen algún papel en el tratamiento de la lumbalgia crónica y no cuál es el mejor cuando se comparan.

Es precisamente en estos casos cuando los ensayos clínicos comparativos tendrían menos valor. De hecho, se podría aducir que, mientras el ensayo cruzado no incluya un tercer grupo con placebo, es difícil sostener que el efecto beneficioso de estos fármacos fuera superior al mero efecto placebo.

sciatica.pngPor otro lado, la magnitud de los resultados en la variable principal (intensidad del dolor medida mediante una escala visual del 1 al 10, antes de comenzar  y después de finalizar el tratamiento) es bastante discreta. Incluso asumiendo que el estudio es válido y que los resultados son verdaderos, la diferencia de medias de reducción del dolor apenas sobrepasa, en el caso de la Gabapentina las veinte centésimas de lo que se considera la mínima diferencia clínicamente importante (1,5). En la Pregabalina la diferencia de medias no llega ni siquiera a esta diferencia clínicamente importante (ver tabla). [Reducción en la puntuación de la escala de intensidad de dolor analógica visual de (media y [SD]), GBP: 1.72 [1.17] vs PGB: 0.94 [1.09]; P = .035)]

Gabapentina Pregabalina
media VAS antes 7,54 7,33
media VAS después 5,82 6,38
Diferencia 1,72 0,95

 

2º) En cuanto al análisis de validez basándonos en los citerios de este artículo, debemos tener en cuenta:

  • Tamaño de la muestra: es la crítica más generalizada a este tipo de artículos, y a este en concreto, sin embargo, hay que recordar que el tamaño de la muestra nunca es grande o pequeño, sino el necesario para encontrar el efecto deseado con una potencia estadística suficiente. El diseño cruzado requiere un tamaño de muestra menor que en un diseño paralelo y los autores pueden llegar a una conclusión estadísticamente significativa utilizando un número no muy elevado de pacientes. No obstante hay que tener en cuenta, que en este estudio la muestra es la mitad de lo previsto ya que corresponde un análisis intermedio.Tambien hay que considerar que si el tamaño es pequeño, aunque sirva para detectar la diferencia buscada, aumenta el riesgo de que el reparto aleatorio no sea completamente al azar lo que conelleva que los dos grupos difieran sistemáticamente y haya un sesgo de selección.
  • Aleatorización y seguimiento: La aleatorización y asignación se ocultaron adecuadamente, al igual que el tratamiento de las perdidas.
  • Análisis: En este ensayo no se realizan comparaciones de los resultados del tratamiento en los individuos del mismo grupo (correlación intraindividuos) lo que hace que el ensayo tenga un valor limitado y no aproveche la ventaja del emparejamiento de este tipo de diseños. Solo se ofrece un resultado global (tabla más arriba) junto a los resultados de la diferencia de medias entre el valor basal y final en cada periodo y en cada secuencia (ver tabla de estudio).
  • No se ha efectuado ningún análisis para evaluar el efecto arrastre (carryover)* o el efecto periodo**

3º) Como se comentó al principio el interés por este estudio surgió a raíz de un tuit, tuit queimagen_decorativa_redes_sociales siguiendo las conclusiones de los autores afirmaba que Gabapentina y Pregabalina eran eficaces en la lumbociática crónica, con ventaja para la primera.

Esta afirmación, más que discutible, según hemos visto en la lectura crítica, nos lleva a pensar en cómo se difunden los conocimientos clínicos en el tiempo de las redes sociales. Para saberlo no hay nada como echar un vistazo al “Altmetric*** del artículo.

En resumen podemos ver:

  • Los cinco sitios de noticias que se hace eco del ensayo recogen las conclusiones de los autores sobre la eficacia y superioridad de la Gabapentina.
  • De los 41 tuits recogidos por Altmetrics, 22 resaltan la eficacia de Gabapentina, 2 critican el ensayo o lo ponen en duda, 5 son neutros dando solo la información, 11 corresponden al título del artículo, tal como lo ofrece la revista en el botón de tuitear y 1 da información no relacionada con el artículo.
  • Una página de Facebook remite al artículo con la siguiente leyenda: ”La Gabapentina (Neurontin) es mejor que la Pregabalina (Lyrica) en personas con dolor neuropatico. Un estudio pequeño, sin embargo, respalda lo que mis pacientes han estado diciendo durante años”
  • El grupo de personas que protagonizaban estos comentarios y tuits en redes sociales estaba conformado por: Publico en general 31 (74%), Médicos y otros profesionales asistenciales 5 (12%), Científicos 5 (12%) y Comunicadores científicos (periodistas, blogers, editores)  1 (2%)

 

Conclusiones: La validez metodológica y los resultados ofrecidos no permiten concluir que ninguno de los dos fármacos sea eficaz en el tratamiento de la lumbociática crónica. En este escenario determinar cuál de los dos es mejor carece de importancia.

Las redes sociales podrían transmitir ideas preestablecidas o las conclusiones de los autores sin un mínimo análisis. Se difunden así, coclusiones falsamente positivas sobre la eficacia de los fármacos.

Mi agradecimiento a Fernando José García López por revisar este post y ofrecer desinteresadamente su conocimiento y valiosos comentarios. La responsabilidad de los posible errores o malas intepretaciones de lo escrito es solo mía.


* El efecto carryover o de arrastre se define como el efecto del tratamiento del período de tiempo anterior en la respuesta en el período de tiempo actual. En otras palabras, si un paciente recibe el tratamiento A durante el primer período y el tratamiento B durante el segundo período, las mediciones tomadas durante el segundo período podrían ser el resultado del efecto directo del tratamiento B administrado durante el segundo período, y/o arrastre o efecto residual del tratamiento A administrado durante el primer período. Estos efectos de arrastre producen un sesgo estadístico. Las diferentes medidas que se adopten para evaluar este efecto deben ser contempladas y descrita en el ensayo. Un periodo de lavado o wahout suficiente, es una de ellas

** El efecto periodo se refiere al posible cambio de las características del paciente o de la enfermedad durante los periodos del estudio, modificando por tanto la respuesta a las diferentes intervenciones.

*** Altmetrics es un conjunto de métricas usadas para medir los diferentes impactos de la investigación más allá de las métricas tradicionales de la producción científica. Se trata de una serie de indicadores derivados en muchos casos de herramientas de la web social, que se generan a partir de las interacciones de los usuarios en los espacios web con los materiales generados por los investigadores.

ORBITA envía un mensaje de CORAJE

Traducción libre de ORBITA beams message of COURAGE de Richard Lehman’s journal reviews

En 1959, el NEJM publicó un pequeño ensayo controlado que simulaba la ligadura de la arteria mamaria interna para el alivio de la angina de pecho. La idea era que al ligar las arterias mamarias internas (que se llenan durante la sístole) podría aumentar el flujo sanguíneo a través de las arterias coronarias (que se llenan durante la diástole). Muchos pacientes sintieron una mejoría en sus síntomas, y el procedimiento comenzó a hacerse popular después de ser divulgado en el Reader’s Digest. Pero este estudio de 17 pacientes  detuvo su popularidad, en el ensayo se aleatorizó un grupo a una ligadura real y otro a una incisión en la piel solo. Estaba claro que la operación tenía un efecto placebo transitorio y nada más. Nadie alegó que el ensayo era demasiado pequeño, porque la carga de la prueba se había desplazado a quienes defendían el procedimiento, que ni siquiera tenían una narrativa plausible que ofrecer.

anginovag

GPC de la ESC 2013 sobre diagnóstico y tratamiento de la cardiopatía isquémica estable

Esto contrasta con la creencia generalizada de que la angina es causada por estrechez de las arterias coronarias. Es una narración completamente plausible: de hecho, probablemente sea cierta. Por lo tanto, se deduce que ensanchar las arterias coronarias utilizando stents, proporcionará un alivio sintomático mayor de lo que posiblemente pueda proporcionar el uso de medicamentos. Incluso el ensayo COURAGE que demostró que el tratamiento médico era tan bueno como la colocación de stents para prevenir el infarto de miocardio y la muerte, dejó abierta esta posibilidad para unos pocos pacientes. Pero ahora aparece el estudio británico ORBITA, que va más allá del  COURAGE utilizando un comparador activo (simulado) para evaluar el efecto del stent en personas con angina estable que tenían estenosis importantes en sus angiografías. El resultado ha “chocado” a la comunidad de cardiológos intervencionistas: ‘En pacientes con angina tratada médicamente y estenosis coronaria severa, la revascuralización coronaria no aumentó el tiempo de ejercicio más que el efecto de un procedimiento placebo. Pero ¿Deberíamos sorprendernos? Por segunda semana consecutiva, dirijo su atención a Ending Medical Reversal de Vinay Prasad y Adam Cifu (2015), p.29 ¿Podría ser el stent para las personas con angina estable como la ligadura de la arteria mamaria interna? ¿Podría el pequeño efecto, relativamente efímero, ser simplemente un efecto placebo? Debe probarse. Si se descubriera que la colocación de stents no es mejor que la colocación de stents falsos, entonces … (este) sería el mayor ejemplo de cambio de rumbo (revocación), al menos en términos de costo, en los últimos 20 años. Si.

Malos tiempos para la Lyrica

Uno de los desatinos a los que nos han acostumbrado en los últimos años los tratantes del dolor ha sido el prolífico uso de medicamentos antiepilépticos (gabapentina y pregabalina) en todo tipo de afecciones dolorosas. Sobre todo en el denominado dolor neuropático, que para este caso se refería a cualquier dolor en el que estuviera implicado un nervio. Lo usual era saltarse a la torera la ficha técnica y aceptar indicaciones no solo no sustentadas en la evidencia, sino orquestadas en campañas promocionales. Dentro de estos desatinos de unidades especializadas, destacaba por lo naif de la indicación, la utilización de estos medicamentos en la lumbociatica aguda o crónica. Daba igual, allí por donde había un nervio y un dolor, aparecían estos fármacos como remasterizados bálsamos de fierabrás. El caso es que los médicos de familia intuiamos cierta ineficacia en estos tratamientos y en estas indicaciones. Intuición que se ha visto corroborada por un ensayo clínico controlado y aleatorizado publicado esta semana en el NEJM.

pregabalinaUn ensayo clínico donde se administraba pregabalina en pacientes con ciática a dosis de 150 mg por día ajustada a una dosis máxima de 600 mg por día o placebo durante un máximo de 8 semanas. Como variables de resultado principal se midió la puntuación de la intensidad de dolor en la pierna (con una escala de 10 puntos) en la semana 8 y en la semana 52.Como variable secundarias se evaluaron el grado de discapacidad, la intensidad del dolor de espalda, y medidas de calidad de vida en tiempos concretos durante un año. Los resultados mostraron que el tratamiento con pregabalina no redujo significativamente la intensidad del dolor en la pierna asociado con la ciática y no mejoró significativamente otros resultados, en comparación con el placebo, en el transcurso de 8 semanas; con una incidencia de eventos adversos significativamente mayor en el grupo de pregabalina que en el grupo placebo.

pregabalina1Los posibles porqués de este resultado negativo se explican en el editorial acompañante de la misma revista; van desde la capacidad o potencia del estudio para detectar diferencias significativas, hasta los diferentes tipos de dolor (nociceptivo y neuropático) que se encuentran en la lumbociatica y su proporción , pasando por la evolución favorable de estos problemas, incluso sin tratamiento. Merece la pena leerlo, aunque solo sea por mantener el beneficio de la duda de unos medicamentos que cada día que pasa, se muestran como sobrevalorados y sobreprescritos

Síndrome Gollum

Por Julio Bonis, leído en MEDFAM-APS

En el editorial del BMJ publicado recientemente Data sharing: lessons from Copernicus and Kepler se señala:

“No es de extrañar que muchos clínicos hayan dejado de leer artículos científicos. Se publican demasiados y la mayoría no incluyen datos que podamos examinar o validar. Hay demasiadas probabilidades de ser engañado. De modo que desconectamos, y como resultado, incluso los resultados más convincentes y clínicamente importantes son a menudo ignorados.

Los investigadores pueden ayudar a resolver este problema mostrando su trabajo. Sin embargo, cuando se les pide que den acceso público a sus datos algunos se rebelan, como ha ocurrido recientemente en el NEJM. ¿Por qué esa resistencia? ¿Creen estos investigadores que el tiempo y el esfuerzo que destinaron a generar los datos les da una licencia exclusiva para analizar los mismos y escribir artículos científicos sobre ellos? Si es así, actúan como si los datos les perteneciesen.

Los datos de los ensayos clínicos son generados como parte de un contrato social por el cual los pacientes (al firmar su consentimiento) participan en estudios en busca de un beneficio potenciales que puedan ofrecer a la sociedad sin esperar un beneficio individual a cambio. Los investigadores que recogen los datos e informan sobre sus hallazgos en reuniones científicas y en la literatura médica son privilegiados por poder hacerlo; estas bases de datos no son objetos que posean o puedan vender. Los pacientes que firman su consentimiento lo hacen por el bien común, no participan para generar información que pueda ser monopolizada para cultivar las carreras científicas de un puñado de investigadores.”

unnamed

Investigador de entidad publica finaciado con beca FIS afecto del síndrome exclama “Mi Tesoooorooo”

 

A “los datos de los ensayos clínicos” podría añadirse los datos de la historia clínica electrónica anonimizada. Desde el activismo altermundista se suele acusar a la industria farmacéutica de “no publicar sus datos”, pero ¿qué hay de los investigadores de “la cosa pública”?
¿hacen públicos sus propios datos?
¿se da acceso a los datos generados con financiación pública a cualquiera que quiera analizarlos (incluida, por qué no la propia industria farmacéutica o los ciudadanos)?
¿por qué?

La nueva pirámide de la evidencia

La nueva pirámide de la evidencia
M. Hassan Murad, Mouaz Alsawas, Noor Asi, Fares Alahdab, publicado originalmente en Newsletter of the International Society for Evidence-Based Health Care 21st Newsletter Edition, 2015

Actualizado en Murad MH. New evidence pyramid. Evid Based Med 2016; 21 (49): 125

Uno de las premisas de la práctica clínica basada en la evidencia sostiene que existe una jerarquía de evidencia. Las primeras interpretaciones de este principio se centraron en el diseño del estudio. Por ejemplo, los ensayos controlados aleatorios incorporan garantías metodológicas que reducen el riesgo de sesgo en comparación con los estudios observacionales. Este principio fue propuesto al principio de la década de los 90  y ¿qué mejor estructura conceptual que la de una pirámide para representar una jerarquía?

Los profesionales de la salud basada en la evidencia se familiarizaron con esta pirámide al leer la literatura, aplicaban la evidencia o  la enseñaban a los estudiantes.
Se han descrito varias versiones de la pirámide de la evidencia , pero todos ellas se han centrado en mostrar los estudios de diseño más débil en la parte inferior (la series de casos y ciencia básica), seguido de casos y controles y de estudios de cohortes en el centro, a continuación, ensayos controlados aleatorizados, y en la parte superior revisiones sistemáticas y meta-análisis.

Esta descripción es intuitiva y probablemente correcta en muchos casos. La mayoría de las versiones de la pirámide representan claramente una jerarquía de validez (riesgo de sesgo), pero al menos una versión también incorpora aplicabilidad (N-of-1 ensayos en la parte superior).

A principios de la década de 2000, el Grupo de Trabajo GRADE presentó un marco en el que la certeza en la evidencia estaba basada en una combinación de diseño del estudio y otros factores (por ejemplo, imprecisión, incoherencia, resultados indirectos) desafiando el concepto de pirámide. En 2014, uno de los artículos de la Guía del usuario de la literatura medica, en concreto el dedicado de revisiones sistemáticas y meta-análisis, desafió la noción de posicionamiento de las revisiones sistemáticas en la parte superior de la pirámide y presentó un enfoque en dos pasos, en el que la credibilidad del proceso utilizado para generar una revisión sistemática se evalúa primero,  y es seguido de la evaluación de la certeza de la evidencia basada en la aproximación GRADE.

Aquí presentamos un esquema de una pirámide evidencia revisada que refleja estos dos cambios contemporáneos (Figura).

 

newpirmaide4

La pirámide tradicional

newpirmaide5

Revisando la piramide: 1/ lineas que separan los estudios se vuelven onduladas, 2) las revisiones sistemáticas se destroncan de la pirámide

newpirmaide3

la pirámide revisada, las revisiones sistemáticas son los lentes a través de las cuales se ve (aplica) la evidencia

 

La pirámide revisada hace hincapié en dos conceptos:

1) las líneas que separan el diseño del estudio son onduladas subiendo y bajando (por lo tanto, lo que refleja el enfoque GRADE de subir y bajar de calificación)

2) las revisiones sistemáticas están destroncadas de la parte superior de la pirámide y utilizada como una lente a través del cual deben considerarse otros tipos de estudios (es decir, evaluados y aplicados).

Esta pirámide la vemos utilizada como herramienta de enseñanza. Los profesores de práctica clínica basada en la evidencia pueden comparar las pirámides originales y las revisadas para explicar el enfoque GRADE, la guía de usuarios para revisiones sistemáticas, y para demostrar la evolución en el pensamiento la práctica clínica basada en la evidencia y la comprensión moderna de la certeza en la evidencia.

y una revisión sistemática

Las  revisiones sistemáticas RS y en concreto las de la  Cochrane sirven para algo más que con voz campanuda decir “una revisión de la Cochrane dice que …..” . Sirven sobre todo para sintetizar de forma organizada y científica las respuestas a las preguntas que se hacen en la clínica. Aparte de coronar la jerarquía de la evidencia científica, otras cualidades de las RS  son la de facilítanos el acceso y recopilación de la gran cantidad de información científica que se publica, la de actualizar, reunir y compendiar toda la información sobre un tema concreto, la de crear nuevas evidencias ante resultados previos inconsistentes y algunas más.
Además y como bien dice el titulo de una carta publicada en Lancetdeben ser el principio y el final de un buen ensayo clínico: Clinical trials should begin and end with systematic reviews of relevant evidence,

Lo explicamos: cualquier asistente a un cuso de metodología de la investigación o de cómo redactar un articulo biomédico, lo primero que aprende es que la justificación y el objetivo del estudio se plasma en la primera parte o introducción que debe ir encabezada con un resumen breve , casi telegráfico, de lo que se sabe sobre el tema: el estado del arte en sentido aristotélico….

¡qué mejor forma que sustentarlo y referenciarlo que con una revisión sistemática.
“Para justificar un nuevo ensayo clínico tanto científica como éticamente debe concebirse a la luz de una evaluación de investigaciones anteriores, lo ideal sería una revisión sistemática”

Así mismo, nos han enseñado y así lo creemos (con permiso de Manuel Arranz que pone en tela de juicio la estructura de un original científico y lo hace de forma comprometida y humoristica en una antigua serie de la revista Gestión Clínica y Sanitaria) que en la parte final, la discusión se debe confrontar nuestros resultados con los de trabajos previos. De nuevo que mejor que una revisión sistemática para tener localizados, referenciados y adecuadamente tabulados estos estudios y estos resultados.

“Cuando se dan a conocer los resultados, estos deben establecerse en el contexto de la revisión actualizadas de otras investigaciones similares.”

Los autores de la carta del Lancet evaluaron en tres artículos publicados en 1997, 2001 y 2005 los ensayos aleatorios publicados en el mes de mayo en cinco revistas médicas: Annals of Internal Medicine, BMJ, JAMA, The Lancet y el New England Journal of Medicine. Sólo una pequeña proporción de los informes de estos ensayos proporcionaban información suficiente para evaluar la contribución de los nuevos resultados a la totalidad de la evidencia disponible. Repite ahora el estudio (mayo de 2009) y como en las publicaciones previas evaluaron las secciones de discusión de los ensayos y vieron en qué medida los ensayos referencian revisiones sistemáticas en la sección de introducción. Los resultados son estos:

A la vista de estos desesperanzadores datos los editores del Lancet y de acuerdo con las recomendaciones CONSORT (Consolidated Standards of Reporting Trials), han decidido pedir a los autores que pongan su trabajo en “el contexto de lo que ha pasado antes”.

Por tanto los artículos remitidos para publicación a  The Lancet a a partir de agosto deben incluir una revisión sistemática de la investigación previa en la sección de discusión e incluir en esta misma sección una confrontación de su resultados con las de los estudios localizados mediante la revisión como se puede ver en la tabla  y como aparece – lo ponen como ejemplo- en el estudio TACT Sequential docetaxel as adjuvant chemotherapy for early breast cancer (TACT): an open-label, phase III, randomised controlled trial.

Gracias a Sergio Uribe por ponerme en las pista de esta información.

Tripdatabase

el impacto del dinero

La supuesta relación entre el factor de impacto entre otras medidas bibliométricas y la calidad metodológica de los artículos publicados en ella, queda en entredicho con esta revisión sistemática sobre los ensayos de la vacunación antigripal , donde se ve claro que no existe relación entre estas variables. Bien es cierto que los autores toman losfi
indicadores bibliométrico como posibles indicadores de difusión no de calidad formal,y que en medicina de familia, de momento ese debate tiene poca intensidad –afortunadamente, aunque todo se andará y más desde la gloriosa entrada en la Universidad  Española–. En cualquier caso lo que les sale, como se ve en la tabla, es muy revelador, entre otras cosa que le impacto esta más relacionado con la financiacion que con la calidad metodologica.

Esta tabla  se encuentra en un nuevo experimento de la revista BMJ, trata de resumir la información de un artículo original (en este caso Relation of study quality, concordance, take home message, funding, and impact in studies of influenza vaccines: systematic review) siguiendo el famoso formato PICO postulado por la MBE en el paso primero de la formulación de preguntas.

Estos u otros resúmenes serán en el futuro el material principal de las revistas medicas (las que subsistan)  impresas. Solo se recurrirá al material original (articulo como lo conocemos ahora más información ampliable hasta cualquier limite)  accediendo a grades repositorios o bases de datos cuando se quiera tener en cuenta una información muy concreta o especifica.

No esta claro si alguna vez hubo 11. 000 vírgenes pero lo que sí lo está, es que pocos son los médicos que  se paran a leer un artículo completo.

no inferioridad

Lo estudios clínicos sirven para demostrar la eficacia de un medicamento o una intervención. En los ensayos clínicos y gracias a la estadística podemos rechazar la hipótesis nula y por tanto confirmar la alternativa, es decir que el nuevo medicamento o la nueva intervención es más eficaz que la que se compara. La hipótesis nula aunque puede ser rechazada por los datos, nunca se  puede considerar probada. No puede ser “demostrada”, porque siempre cabe la posibilidad de que las intervenciones difieran en un efecto lo suficientemente pequeño como para que no pueda ser detectado, porque la muestra no sea suficientemente grande, o por otras características metodológicas del estudio clínico. En el caso de medicamentos de eficacia similar, demostrar diferencias conllevaría, entre otros problemas, la necesidad de contar con una muestra muy amplia. Para solventar este problema, se proponen los que se denominan estudios de equivalencia o de no inferioridad.

A raíz del estudio Ontarget , ya comentado en este blog, se ha desarrollado un legítimo interés por el conocimiento de la metodología que esta detrás de estos estudios. Una revisión practica publicada recientemente en una revista  accesible gratuitamente desde Internet puede ayudar a lidiar con los conceptos de superioridad, equivalencia y no inferioridad en la realización de ensayos clínicos. En español también hay un revisión reciente sobre el tema publicada (noviembre del 2007) en la revista Medicina Clínica, pero como es de pago no se puede poner aquí, a no ser que medie el bibliotecario de la Capitan Morgan Library