Tabla de resumen del modelo para Ajuste el Modelo de Cox con Formato del Proceso de Conte

Búsqueda de definiciones y ayuda para interpretar cada una de las estadísticas en la tabla de resumen del modelo.

La tabla de resumen del modelo incluye dos filas. Una fila es para un modelo sin ningún término. La otra fila es para un modelo con los términos del análisis. Revise las dos filas para evaluar la mejora del modelo con términos en comparación con el modelo sin términos. Utilice la fila del modelo con términos para describir el rendimiento del modelo. Utilice AIC, AICc y BIC para comparar entre sí los modelos con términos de diferentes análisis.

Log-verosimilitud

Utilice la log-verosimilitud para comparar dos modelos que utilizan los mismos datos para estimar los coeficientes. Puesto que los valores son negativos, cuanto más cercano a 0 esté el valor, mejor se ajustará el modelo a los datos.

La log-verosimilitud no puede disminuir cuando se agregan términos a un modelo. Por ejemplo, un modelo con términos tiene mayor log-verosimilitud que un modelo sin términos. Una mayor diferencia en los valores de log-verosimilitud entre los dos modelos indica mayor contribución del modelo al ajuste de los datos.

Cuando se comparan dos modelos con términos, la diferencia de rendimiento es más clara si los modelos tienen el mismo número de términos. Utilice los valores p de los términos de la tabla Coeficientes para decidir qué términos incluir en el modelo.

R-cuad.

El valor de R2 es el porcentaje de variación en la respuesta explicado por el modelo.

Interpretación

Utilice el valor de R2 para determinar qué tan adecuadamente se ajusta el modelo a los datos. Cuanto mayor sea el valor de R2, mejor se ajusta el modelo a los datos. El valor de R2 siempre se encuentra entre 0% y 100%.

Considere los siguientes problemas al interpretar el valor de R2:
  • El valor de R2 siempre aumenta cuando se agregan más predictores a un modelo. Por ejemplo, el mejor modelo de cinco predictores siempre tendrá un valor de R2 que al menos será tan alto como el mejor modelo de cuatro predictores. Por lo tanto, el valor de R2 es más útil cuando se comparan modelos del mismo tamaño.
  • Las muestras pequeñas no proporcionan una estimación precisa de la fuerza de la relación entre la respuesta y los predictores. Por ejemplo, si necesita que el valor de R2 sea más preciso, debe utilizar una muestra más grande.
  • Las estadísticas de bondad de ajuste son simplemente una medida que indican qué tan adecuadamente se ajusta el modelo a los datos. Incluso cuando un modelo tenga un valor deseable, deberá verificar que las gráficas del modelo cumplan las hipótesis del modelo.

AIC, AICc and BIC

El criterio de información de Akaike (AIC), el criterio de información de Akaike corregido (AICc) y el criterio de información bayesiano (BIC) son medidas de la calidad relativa de un modelo que representan el ajuste y el número de términos en el modelo.

Interpretación

Utilice el AIC, el AICc y el BIC para comparar diferentes modelos. Se prefieren valores más pequeños. Sin embargo, el modelo con el valor más pequeño para un conjunto de predictores no necesariamente ajusta los datos adecuadamente. Use también pruebas y gráficas de residuos para evaluar qué tan bien se ajusta el modelo a los datos.
AICc y AIC
Cuando el tamaño de la muestra es pequeño en relación con los parámetros incluidos en el modelo, el AICc tiene un mejor desempeño que el AIC. El AICc tiene un mejor desempeño debido a que, con tamaños de muestras relativamente pequeños, el AIC tiende a ser pequeño para modelos con demasiados parámetros. Por lo general, los dos estadísticos dan resultados similares cuando el tamaño de la muestra es suficientemente grande en relación con los parámetros incluidos en el modelo.
AICc y BIC
Tanto el AICc como el BIC evalúan la probabilidad del modelo y luego aplican una penalización por agregar términos al modelo. La penalización reduce la tendencia a sobreajustar el modelo a los datos de la muestra. Esta reducción puede producir un modelo que tenga un mejor desempeño en general.
Como directriz general, cuando el número de parámetros es pequeño en relación con el tamaño de la muestra, el BIC tiene una penalización mayor por la adición de cada parámetro que el AICc. En estos casos, el modelo que minimiza el BIC tiene a ser más pequeño que el modelo que minimiza el AICc.
En algunos casos comunes, tales como diseños de cribado, el número de parámetros es generalmente grande en comparación con el tamaño de la muestra. En estos casos, el modelo que minimiza el AICc tiende a ser más pequeño que el modelo que minimiza el BIC. Por ejemplo, para un diseño de cribado definitivo de 13 corridas, el modelo que minimiza el AICc tenderá a ser más pequeño que el modelo que minimiza el BIC entre el conjunto de modelos con 6 o más parámetros.
Para obtener más información sobre AICc y BIC, consulte Burnham y Anderson.1
1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644