Palabras clave
«It appears to me a most excellent thing for the physician to cultivate prognosis... by seeing and announcing forehand those who will live and those who will die, he will escape censure»
Hipócrates, Aforismos II, 191.
INTRODUCCION
Desde la Antigüedad, uno de los objetivos de los médicos ha sido conocer el pronóstico de sus pacientes. Como reza el aforismo hipocrático mencionado, informar adecuadamente del pronóstico al paciente o a su familia puede evitar ser censurado por éstos.
No obstante, la evaluación del riesgo en los pacientes con un síndrome coronario agudo (SCA) tiene en la actualidad objetivos más amplios que podemos agrupar en 4 apartados:
• Informar y aconsejar al paciente y a su familia.
• Identificar a los pacientes con un riesgo elevado de muerte o infarto, susceptibles de mejorar su pronóstico con un tratamiento adecuado.
• Identificar a los pacientes con un riesgo muy bajo que no requieren estudios invasivos, evitando así los costes y los riesgos innecesarios de estas técnicas.
• Planificar la rehabilitación cardiaca y la prevención secundaria tras el episodio agudo.
La estratificación del riesgo es útil también en los ensayos terapéuticos cuando se trata de conocer la eficacia de un fármaco o una técnica, especialmente si se desean establecer sus indicaciones, ya que, en general, la eficacia y la relación coste-efectividad suelen estar relacionadas con el pronóstico: a peor pronóstico, mayor eficacia.
Por desgracia, los métodos de evaluación del riesgo en pacientes coronarios distan mucho de la perfección. Este trabajo pretende ofrecer una revisión crítica de estos métodos y señalar los errores más frecuentes en el diseño de los estudios de estratificación, así como los principales problemas en la utilización de las diferentes fórmulas o scores.
ANTECEDENTES HISTORICOS
Los estudios dedicados a la estratificación y la predicción del riesgo en pacientes que han experimentado un infarto de miocardio se iniciaron hace más de 50 años y han evolucionado a medida que se perfeccionaban las técnicas estadísticas y el conocimiento sobre la fisiopatología de la enfermedad coronaria. Así, podemos agruparlos en 5 fases, que van desde los primeros estudios hasta el desarrollo de modelos o algoritmos de predicción recientes.
PRIMEROS ESTUDIOS
Los estudios encaminados a desarrollar una fórmula que permitiese cuantificar el riesgo de un paciente con infarto de miocardio mediante una puntuación o score se remontan al comienzo de la década de 19502. Los esfuerzos se redoblaron con la aparición de las primeras unidades coronarias3,4. En todos estos casos, las variables utilizadas para el cálculo del riesgo eran parámetros clínicos, en ocasiones obtenidos empíricamente sobre la base de la experiencia de los autores, y tratados con métodos estadísticos de relativa sencillez.
UNIDADES CORONARIAS
Aunque no pueda considerarse exactamente una fórmula de predicción o score, la clasificación de Killip y Kimbal5, basada en signos clínicos sencillos de insuficiencia cardiaca, constituye un método muy útil para clasificar a los pacientes con un infarto de miocardio en 4 categorías que guardan una buena correlación con la mortalidad.
En la década de 1980, los estudios sobre la estratificación del riesgo incorporaron nuevas variables, como la fracción de eyección, la severidad de la afectación coronaria y las arritmias, además de la aparición de nuevos métodos estadísticos de análisis de la supervivencia. En el primero de estos estudios se demostró que la presencia de insuficiencia cardiaca durante el ingreso, la disfunción ventricular y la afectación coronaria en las 3 arterias coronarias permitía identificar a un grupo de pacientes con una elevada mortalidad (hasta el 40% en 2 años)6.
El segundo de los estudios, llevado a cabo por el Multicenter Postinfarction Research Group, se identificó la presencia de arritmias ventriculares, particularmente, las formas repetitivas de extrasístoles y la taquicardia ventricular como factor pronóstico importante, y muy importante, la interacción entre arritmias y disfunción ventricular7.
MÉTODOS INCRUENTOS
El reconocimiento del papel de la función ventricular y la isquemia residual como predictores de riesgo tras el infarto de miocardio, unido al desarrollo de técnicas no invasivas para determinar estos parámetros, dio lugar a un gran número de trabajos en los que se estudió el papel de la ecocardiografía, la ergometría y la tomogammagrafía de perfusión en la estratificación del riesgo postinfarto. A pesar del entusiasmo inicial y de los alentadores resultados obtenidos en pequeñas series de pacientes, la capacidad de predicción del riesgo de muerte es muy limitada. Las discrepancias entre las series iniciales y los hallazgos en la vida real se deben a que en las primeras se incluía a pacientes muy seleccionados, el seguimiento era en general corto, había pocos eventos y se utilizaban variables de evaluación combinadas, que incluían la revascularización miocárdica o la presencia de angina.
En un metaanálisis ya clásico de Shaw et al, publicado hace 10 años, se comparaba la sensibilidad y especificidad de las diferentes técnicas para detectar la incidencia muerte y reinfarto. Llama la atención el elevado valor predictivo negativo de todas ellas, entre el 91 y el 97%, a expensas de un valor predictivo positivo muy bajo, inferior al 20%8. De esta forma, los métodos incruentos en la evaluación del riesgo postinfarto de miocardio son útiles para descartar un tratamiento agresivo en pacientes en los que la probabilidad de complicaciones pretest es baja y alguna de las pruebas citadas resulta también negativa. Estos pacientes pueden ser dados de alta con seguridad; no obstante, ello implica que en muchos pacientes (falsos positivos) se realizan innecesariamente cateterismo y revascularización.
CONCEPTO DE SINDROME CORONARIO AGUDO. TROPONINAS
El desarrollo de los conceptos de placa vulnerable y rotura de la placa, así como el reconocimiento de que éste era el mecanismo subyacente en la angina inestable, el infarto sin onda Q y el infarto de miocardio agudo clásico, condujo a considerar estos 3 cuadros clínicos como parte de un continuo denominado SCA9. Al mismo tiempo, la posibilidad de determinar mediante técnicas de laboratorio sencillas la concentración de troponinas, un marcador más sensible que la creatincinasa o sus fracciones, abrió una nueva época en la estratificación del riesgo, especialmente en los síndromes coronarios agudos sin elevación del segmento ST (SCASEST)10. La determinación de las troponinas y los cambios electrocardiográficos constituyeron la base de los algoritmos de estratificación, tanto en las guías de tratamiento como en los grandes ensayos clínicos11.
MODELOS DE PREDICCION («ALGORITMOS»)
Finalmente, en los últimos años se han desarrollado modelos o algoritmos de predicción (scores) que integran variables clínicas, electrocardiográficas y analíticas en un intento de hacer más exacta la evaluación del riesgo.
A pesar de la gran variedad de modelos que se han propuesto y de la sencillez de algunos de ellos, su utilización está muy limitada en la práctica clínica. Por ejemplo, datos del registro GRACE publicados recientemente demuestran que la utilización de intervencionismo percutáneo coronario (IPC) en pacientes con SCA es independiente del riesgo. Así, en pacientes con síndrome coronario agudo con elevación del segmento ST (SCACEST) y riesgo bajo se practicó IPC en el 60% de los casos, en comparación con el 41% de los pacientes con alto riesgo. Esto era también cierto para los pacientes con SCASEST, con cifras del 40 y el 25%, respectivamente12. Datos similares se han obtenido en el registro DESCARTES de la Sección de Cardiopatía Isquémica de la Sociedad Española de Cardiología, en los que el pronóstico de pacientes con SCASEST medido mediante la puntuación TIMI no influía en la decisión de realizar ICP13.
DESARROLLO DE MODELOS DE PREDICCION
En la figura 1 se muestra el proceso de desarrollo de un modelo de predicción. En primer lugar se selecciona la complicación que desea predecirse, generalmente la muerte, el infarto de miocardio o, lo más frecuente, la combinación de ambas. En los cálculos estadísticos subsiguientes, ésta será la variable dependiente. En segundo lugar se determina qué variables se introducirán en el análisis como potenciales predictores y, al mismo tiempo, se identifica la población objeto de estudio.
Fig. 1. Desarrollo de un modelo de predicción (algoritmo). OR: odds ratio.
Generalmente se realiza una primera selección de variables mediante un estudio univariable, y las que alcanzan significación estadística se estudian en el análisis multivariable para determinar su relación independiente con la complicación o el evento que se desea predecir. Esta relación se suele expresar como odds ratio (OR) o como riesgo relativo. A partir de estas variables se construye el modelo o algoritmo, a partir del cual se calculará una puntuación para cada paciente. En los modelos más simples se otorga un punto por cada factor de riesgo que presente el paciente; en otros casos se asigna un valor diferente a cada variable según el grado de correlación, la OR, que mostró en el análisis multivariable (ponderado). A cada puntuación o valor total del score le corresponde un riesgo determinado, que suele proporcionarse en una tabla.
La evaluación de un modelo de predicción debe hacerse calculando su capacidad de discriminación y su calibración. La primera se analiza mediante la construcción de la curva ROC, que es una función de la sensibilidad y la especificidad, y el cálculo del índice «c» o área bajo la curva. Para una población determinada, agrupada en parejas de individuos, uno con la complicación que se va predecir (p. ej., muerte o infarto) y otro sin ella, el índice «c» indica la fracción de parejas en las que el paciente con la complicación tiene una puntuación superior a la del individuo sin ella. Un índice de 0,5 indica que la capacidad de predicción de una prueba o score en estudio no es superior que la que se obtiene al lanzar una moneda al aire, mientras que un índice de 1 indica una predicción perfecta. Un índice «c» se considera bueno si es entre 0,8 y 0,9, y excelente si se sitúa por encima de esta cifra14.
La calibración se refiere a la capacidad de predecir la aparición de la complicación en estudio en un amplio intervalo de puntuaciones, es decir, la relación entre el riesgo estimado y el real. Habitualmente se utiliza el método de Hosmer-Lemeshow15. Hay métodos de evaluación de un modelo que combinan calibración y discriminación, pero se utilizan con menor frecuencia16.
Para confirmar la validez del modelo de predicción, éste debe comprobarse en una muestra independiente; es lo que se denomina validación.
En el proceso de desarrollo de un algoritmo hay 3 aspectos críticos para asegurar la calidad y la capacidad de predicción del modelo: la población empleada para derivar el modelo, las variables introducidas y el análisis estadístico. La población debe ser lo más amplia posible, representativa de la población general, no seleccionada. Así pues, las poblaciones de los ensayos clínicos que con frecuencia se utilizan con este fin no son adecuadas.
El análisis debe incluir todas las variables que tengan sentido clínico, así como las que indican el estado general del paciente y la presencia de comorbilidad. En la predicción del riesgo en pacientes coronarios, generalmente de edad avanzada, la mortalidad puede estar condicionada por enfermedades o características del paciente no relacionadas con su cardiopatía, como la insuficiencia renal. No incluir la comorbilidad entre las variables del modelo conduce con frecuencia a una capacidad de predicción de éste muy baja, en especial cuando se intenta aplicar a una población no seleccionada.
Por último, en el análisis estadístico se deben incluir todos los pasos antes mencionados. Es necesario comprobar la validez externa del modelo. Es necesario tener en cuenta que el hecho de que una variable independiente tenga una OR elevada, lo que indicaría una fuerte asociación con la variable dependiente, no implica que permita discriminar adecuadamente (índice «c» alto).
PRINCIPALES MODELOS DE PREDICCION EN LOS SINDROMES CORONARIOS AGUDOS
En la tabla 1 se enumeran los modelos de predicción o algoritmos utilizados con mayor frecuencia17-31. En la tabla 2 se recogen las características más importantes de los algoritmos utilizados en los SCA.
Como puede observarse, la gran mayoría de ellos son retrospectivos, se obtuvieron a partir de la población incluida en ensayos clínicos aleatorizados, con una población muy seleccionada. De igual forma, las variables que se introdujeron en el análisis no incluían aspectos de comorbilidad o del estado general del paciente.
En consecuencia, aunque la mayoría de los modelos funcionaba bien en la población objeto del estudio o en poblaciones similares, con índices «c» que oscilaban entre 0,73 y 0,84, los resultados fueron menos brillantes cuando los algoritmos se evaluaban en otro tipo de pacientes. Así, en un estudio comparativo publicado recientemente por Araujo-Gonçalves et al se analizó la capacidad de discriminación de los modelos TIMI, PURSUIT y GRACE en 467 pacientes ingresados en una unidad coronaria con el diagnóstico de SCASEST. Los valores del índice «c» observados fueron de 0,585; 0,630 y 0,715, respectivamente, lo que indica que sólo el GRACE, obtenido en un registro con una población menos seleccionada y no en un ensayo clínico, conservaba cierto valor32. En otro estudio de Yan et al, la calibración del modelo PURSUIT fue muy deficiente en comparación con el GRACE33.
PROBLEMAS CON LOS MODELOS DE ESTRATIFICACION DEL RIESGO
Todo lo anterior puede resumirse en 3 puntos:
• La aplicabilidad de un modelo de predicción es tan amplia como la población de la que deriva.
• La ausencia de variables críticas limita su capacidad de predicción.
• Un score que discrimina bien los grupos de riesgo no necesariamente predice de forma correcta el riesgo individual.
Las figuras 2-4 ilustran estos 3 puntos. En la primera de ellas se presenta el caso de un paciente de 72 años con un infarto de miocardio. El score del estudio GUSTO indica un riesgo de muerte al año del 8%. Por el contrario, el CPP, que toma en cuenta variables como la función renal, la incontinencia urinaria o las dificultades en la movilidad, eleva el riesgo al 49%. Claramente, en una población anciana con un grado importante de comorbilidad, el score GUSTO, extraído de una población menos grave perteneciente a un ensayo clínico, no es aplicable.
Fig. 2. Ejemplo de aplicación de dos modelos. Obsérvese la diferencia en el riesgo calculado. Asist.: necesidad de asistencia; Cr: creatinina; EVP: enfermedad vascular periférica; FE: fracción de eyección; IAM: infarto agudo de miocardio; IC: insuficiencia cardiaca; IMC: índice de masa corporal; incont.: incontinencia urinaria; IR: insuficiencia renal; PA: presión arterial.
Fig. 3. Diferencias en el riesgo calculado según las variables utilizadas en el modelo. AVC: accidente cerebrovascular; CABG: cirugía de derivación aortocoronaria; ECG: electrocardiograma; FE: fracción de eyección; FC: frecuencia cardiaca; FR: factores de riesgo; HTA: hipertensión arterial; IAM: infarto agudo de miocardio; IC: insuficiencia cardiaca; PAS: presión arterial sistólica.
Fig. 4. Correlación entre el modelo de predicción TIMI y riesgo. IAM: Infarto agudo de miocardio.
La figura número 3 está construida con datos del estudio comparativo de Singh et al, en el que se analiza la capacidad de discriminación de 2 modelos, TIMI y PREDICT. Puede observarse que el valor del índice «c» del score TIMI es relativamente modesto e inferior al del PREDICT, que incluye variables de comorbilidad y función renal, pero mejora al integrar en el modelo la comorbilidad medida por el índice de Charlson. A su vez, el modelo PREDICT mejora también cuando se introduce una variable de tanto peso como la fracción de eyección34.
Finalmente, la figura 4 se basa en los datos de Sabatine et al e ilustra la relación entre el TIMI score y la incidencia de muerte, infarto y reingreso a los 6 meses de seguimiento35. Hay una relación clara entre pronóstico y la puntuación de TIMI, pero puede observarse que un paciente en el grupo de más riesgo, con una incidencia de complicaciones del 31%, todavía tiene un 70% de posibilidades de no experimentar estas complicaciones. Es decir, aunque el TIMI score separa bien los grupos de riesgo, en el individuo concreto tiene una utilidad limitada.
Por tanto, la pregunta es: ¿por qué tienen un valor tan limitado los modelos de predicción en un individuo concreto? En la figura 5 se resumen los factores que pueden influir en el pronóstico de un paciente determinado. Junto con los factores generalmente incluidos en los modelos analizados, como la función ventricular, el número de vasos coronarios afectados o la inestabilidad eléctrica, hay otros, como el grado de inflamación vascular o el estado protrombótico, que conforman lo que se ha denominado «el paciente vulnerable». Sólo recientemente se ha reconocido el valor de estos factores y se han desarrollado marcadores para determinarlos en la clínica. Por otro lado, y como ya se ha mostrado con anterioridad, el grado de comorbilidad, en especial la función renal y el estado neurológico, son determinantes importantes del pronóstico. Un último factor que rara vez se toma en consideración es la experiencia del hospital que atiende al paciente; se ha demostrado en diferentes registros nacionales e internacionales que hay una gran variabilidad en el tratamiento y los resultados obtenidos entre diferentes hospitales.
Fig. 5. Factores pronósticos en la enfermedad coronaria.
Al igual que sucede en la insuficiencia cardiaca, el péptido natriurético cerebral (BPN) parece mejorar la capacidad pronóstica de los métodos habituales en pacientes con SCA36. Lo mismo sucede con la cistatina-c como medida de la función renal37. Por el contrario, el papel de la albúmina modificada por la isquemia no está bien definido por su baja especificidad38.
La figura 6 está construida con datos del estudio de Westerhout et al y demuestra el potencial valor de estos biomarcadores, el BNP y la creatinina, en combinación con la clínica y el electrocardiograma39.
Fig. 6. Contribución del péptido natriurético cerebral a la predicción del riesgo. BNP: péptido natriurético cerebral; Cr: creatinina; TnT: troponina T.
En la tabla 3, modificada de la excelente revisión de Vasan40 del pasado año, con datos de otros autores41-43, se recogen distintos biomarcadores. Puede observarse que, en muchos de ellos, la técnica de laboratorio no está bien estandarizada y que su valor en la estratificación del riesgo en pacientes con SCA no esta bien estudiado.
Finalmente, es muy probable que las técnicas de imagen ocupen un lugar importante en la predicción del riesgo cardiovascular en un futuro, en especial las que permiten detectar no sólo la presencia de estenosis vascular, sino la actividad inflamatoria en la pared arterial vascular. En este sentido, la combinación de tomografía con emisión de positrones (PET) y la tomografía computarizada (TC) o la resonancia magnética (RM) pueden ocupar un lugar importante en el tratamiento de estos pacientes43.
FUTURO DE LA PREDICCION DEL RIESGO EN LOS SINDROMES CORONARIOS AGUDOS
Los avances en el tratamiento cardiovascular de las últimas décadas permite ofrecer a los pacientes diferentes tratamientos en función de la gravedad de la enfermedad y su pronóstico. Determinar éste con la máxima exactitud posible sigue siendo un objetivo importante. Dadas las limitaciones de los algoritmos actuales, antes expuestas, es necesario continuar la investigación en este campo.
Los algoritmos o modelos de predicción del futuro deberían derivarse de manera prospectiva de poblaciones no seleccionadas en las que estuviesen ampliamente representados todos los segmentos de edad y ambos sexos. De forma ideal, debería poderse aplicar un único algoritmo a todo el espectro de los SCA.
De igual forma, debería incluir todas las variables importantes, tanto propias de la enfermedad coronaria como indicadoras de la comorbilidad y el estado general del paciente. El algoritmo debería proporcionar una primera evaluación del riesgo con las variables obtenidas en el momento del ingreso, pero afinar el cálculo a medida que se obtienen nuevos datos, es decir, disponer de una evaluación continua on-line del pronóstico. Dado que el número de variables puede ser importante, el algoritmo ideal debería aplicarse automáticamente a medida que introducimos datos en una historia electrónica.
El tratamiento estadístico de los datos en el proceso de desarrollo del algoritmo es también crucial. En los últimos años se ha propuesto la utilización de redes neuronales que muestran algunas ventajas sobre el análisis multivariable, en especial, la capacidad de «aprendizaje» y mejoría del algoritmo a medida que se introducen nuevos casos y el hecho de que este entrenamiento del modelo con los casos de un hospital determinado permite adaptarlo a las características de éste44,45.
En resumen, la historia clínica electrónica y la introducción de datos en ella a la cabecera del paciente mediante dispositivos portátiles y algoritmos basados en redes neuronales pueden proporcionar una estimación individualizada del riesgo con mayor exactitud.
AGRADECIMIENTO
El autor desea expresar su agradecimiento a la Fundación Pro-CNIC por su soporte durante la realización del trabajo.
Correspondencia: Dr. G.A. Sanz.
Centro Nacional de Investigaciones Cardiovasculares (CNIC).
Melchor Fernández Almagro, 3. 28029 Madrid. España.
Correo electrónico: gsanz@cnic.es