Comparación de las estimaciones del efecto de los ensayos controlados aleatorizados y los estudios observacionales

Los investigadores y las organizaciones suelen utilizar la evidencia de los ensayos controlados aleatorizados (ECA) para determinar la eficacia de un tratamiento o una intervención en condiciones ideales, mientras que los estudios de diseños observacionales se utilizan para medir la efectividad de una intervención en escenarios no experimentales, del "mundo real". En ocasiones, los resultados de los ECA y los estudios observacionales que abordan la misma pregunta podrían tener resultados diferentes. Esta revisión explora las preguntas de si estas diferencias en los resultados están relacionadas con el diseño del estudio en sí, o con otras características del estudio.

Esta revisión resume los resultados de las revisiones metodológicas que comparan los resultados de los estudios observacionales con los ensayos aleatorizados que abordan la misma pregunta, así como las revisiones metodológicas que comparan los resultados de diferentes tipos de estudios observacionales.

Los principales objetivos de la revisión son evaluar el impacto del diseño de los estudios (que incluyen los ECA versus los diseños de estudios observacionales [p.ej., diseños de cohortes versus los de casos y controles]) en las medidas de efecto estimadas, y explorar las variables metodológicas que podrían explicar cualquier diferencia.

Se realizaron búsquedas en múltiples bases de datos electrónicas y en las listas de referencias de los artículos pertinentes para identificar las revisiones sistemáticas que se diseñaron como revisiones metodológicas para comparar las estimaciones cuantitativas del tamaño del efecto, al medir la eficacia o la efectividad de las intervenciones de los ensayos con las de los estudios observacionales o con los diferentes diseños de estudios observacionales. Se evaluaron los riesgos de sesgo de todos los estudios incluidos.

Los resultados proporcionan poca evidencia de diferencias significativas en la estimación del efecto entre los estudios observacionales y los ECA, independientemente del diseño específico de los estudios observacionales, la heterogeneidad, la inclusión de estudios farmacológicos o el uso del ajuste de la puntuación de propensión. Al explorar las razones de la falta de concordancia entre los resultados de los ECA y los estudios observacionales, se deben considerarse otros factores además del diseño del estudio per se.

Conclusiones de los autores: 

Los resultados en todas las revisiones (ROR agrupada 1,08) son muy similares a los resultados informados por revisiones realizadas de forma parecida. Por lo tanto, las conclusiones son similares; como promedio, hay poca evidencia de diferencias significativas en la estimación del efecto entre los estudios observacionales y los ECA, independientemente del diseño específico de los estudios observacionales, la heterogeneidad o la inclusión de estudios de intervenciones farmacológicas. Al explorar las razones de la falta de concordancia entre los resultados de los ECA y los estudios observacionales, se deben considerarse otros factores además del diseño del estudio per se. Estos resultados subrayan que es importante que los autores de las revisiones tengan en cuenta no solo el diseño de los estudios, sino el nivel de heterogeneidad, en los metanálisis de ECA o de estudios observacionales. Una mejor comprensión de cómo estos factores influyen en los efectos del estudio podría producir estimaciones que reflejen la verdadera efectividad.

Leer el resumen completo…
Antecedentes: 

Los investigadores y las organizaciones suelen utilizar la evidencia de los ensayos controlados aleatorizados (ECA) para determinar la eficacia de un tratamiento o intervención en condiciones ideales. Los estudios con diseño observacional se suelen utilizar para medir la efectividad de una intervención en escenarios del "mundo real". Para la investigación de la efectividad comparativa se utilizan numerosos diseños de estudios y modificaciones de los existentes, ya sean aleatorizados u observacionales, en un intento de ofrecer una estimación no sesgada de si un tratamiento es más efectivo o más seguro que otro para una población concreta.

Se necesita un análisis sistemático de las características del diseño del estudio, el riesgo de sesgo, la interpretación de los parámetros y el tamaño del efecto para todos los tipos de estudios aleatorizados y observacionales no experimentales, con el fin de identificar las diferencias específicas en los tipos de diseño y los posibles sesgos. Esta revisión resume los resultados de las revisiones metodológicas que comparan los resultados de los estudios observacionales con los ensayos aleatorizados que abordan la misma pregunta, así como las revisiones metodológicas que comparan los resultados de diferentes tipos de estudios observacionales.

Objetivos: 

Evaluar el impacto del diseño del estudio (incluidos los ECA versus los diseños de estudios observacionales) en las medidas de efecto estimadas.

Explorar las variables metodológicas que puedan explicar las diferencias identificadas.

Identificar la falta de estudios de investigación existentes que comparen los diseños de los estudios.

Métodos de búsqueda: 

Se realizaron búsquedas en siete bases de datos electrónicas, desde enero de 1990 hasta diciembre de 2013.

Junto con los términos MeSH y las palabras clave relevantes, se utilizó la versión equilibrada de sensibilidad-especificidad de una estrategia validada para identificar revisiones en PubMed, aumentada con un término ("review" en los títulos de los artículos) para que se dirigiera mejor a las revisiones narrativas. No se aplicaron restricciones de idioma.

Criterios de selección: 

Se examinaron las revisiones sistemáticas que se diseñaron como revisiones metodológicas para comparar las estimaciones cuantitativas del tamaño del efecto que miden la eficacia o la efectividad de las intervenciones probadas en los ensayos con las probadas en los estudios observacionales. Las comparaciones incluyeron ECA versus estudios observacionales (que incluyen cohortes retrospectivas, cohortes prospectivas, diseños de casos y controles y diseños transversales). Las revisiones no fueron elegibles si compararon ensayos aleatorizados con otros estudios que habían utilizado alguna forma de asignación concurrente.

Obtención y análisis de los datos: 

En general, las medidas de desenlace incluyeron riesgos relativos o cocientes de tasas (CT), odds ratios (OR), cocientes de riesgos instantáneos (CRI). Al utilizar los resultados de los estudios observacionales como grupo de referencia, se examinaron las estimaciones publicadas para determinar si existía un efecto relativo mayor o menor en la razón de odds ratios (ROR).

Dentro de cada revisión identificada, si no se proporcionó una estimación que comparara los resultados de los estudios observacionales con los ECA, se agruparon las estimaciones de los estudios observacionales y los ECA. A continuación, se determinó la razón de proporciones (razón de riesgos u odds ratio) para cada revisión identificada y se utilizaron los estudios observacionales como categoría de referencia. En todas las revisiones, se sintetizaron estas razones para obtener una ROR agrupada que comparara los resultados de los ECA con los resultados de los estudios observacionales.

Resultados principales: 

La búsqueda inicial produjo 4406 referencias únicas. Quince revisiones cumplieron los criterios de inclusión; 14 de ellas se incluyeron en el análisis cuantitativo.

Las revisiones incluidas analizaron los datos de 1583 metanálisis que incluyeron 228 afecciones médicas diferentes. El número promedio de estudios incluidos por artículo fue 178 (rango: 19 a 530).

Once revisiones (73%) tuvieron bajo riesgo de sesgo por los criterios explícitos para la selección de los estudios, nueve (60%) tuvieron bajo riesgo de sesgo para el consenso de los investigadores para la selección de los estudios, cinco (33%) incluyeron una muestra completa de estudios, siete (47%) evaluaron el riesgo de sesgo de sus estudios incluidos.

Siete revisiones (47%) controlaron las diferencias metodológicas entre los estudios,

Ocho revisiones (53%) controlaron la heterogeneidad entre los estudios, nueve (60%) analizaron medidas de desenlace similares y cuatro (27%) se consideraron con bajo riesgo de sesgo de informe.

El análisis cuantitativo principal, que incluyó 14 revisiones, mostró que la ROR agrupada que comparó los efectos de los ECA con los efectos de los estudios observacionales fue 1,08 (intervalo de confianza [IC] del 95%: 0,96 a 1,22). De 14 revisiones incluidas en este análisis, 11 (79%) no encontraron diferencias significativas entre los estudios observacionales y los ECA. Una revisión indicó que los estudios observacionales tuvieron efectos de interés mayores, y dos revisiones indicaron que los estudios observacionales tuvieron efectos de interés menores.

Al igual que para el efecto de todas las revisiones incluidas, los efectos de las revisiones que compararon los ECA con los estudios de cohortes tuvieron una ROR agrupada de 1,04 (IC del 95%: 0,89 a 1,21), con una heterogeneidad sustancial (I2 = 68%). Tres revisiones compararon los efectos de los ECA y los diseños de casos y controles (ROR agrupada: 1,11 [IC del 95%: 0,91 a 1,35]).

No se observaron diferencias significativas en las estimaciones puntuales entre los subgrupos de heterogeneidad, intervención farmacológica o ajuste de la puntuación de propensión. Ninguna revisión comparó los ECA con los estudios observacionales que utilizaron dos de los métodos de inferencia causal más frecuentes, las variables instrumentales y los modelos estructurales marginales.

Notas de traducción: 

La traducción de las revisiones Cochrane ha sido realizada bajo la responsabilidad del Centro Cochrane Iberoamericano, gracias a la suscripción efectuada por el Ministerio de Sanidad del Gobierno de España. Si detecta algún problema con la traducción, por favor, contacte con comunica@cochrane.es.

Tools
Information