Tabla Resumen del modelo para Ajustar modelo de efectos mixtos

Encuentre definiciones y ayuda para interpretar cada uno de los estadísticos en la tabla Resumen del modelo.

S

S es la desviación estándar estimada del término de error. Cuanto menor sea el valor de S, mejor describirá la ecuación ajustada condicional la respuesta con la configuración seleccionada de los factores. Sin embargo, un valor de S por sí solo no describe completamente lo adecuado del modelo. Examine también los resultados clave de otras tablas y las gráficas de residuos.

R-cuad.

El R2 es el porcentaje de variación en la respuesta que es explicada por el modelo. Se calcula como 1 menos la relación de la suma de los cuadrados del error (que es la variación que no es explicada por el modelo) a la suma total de los cuadrados (que es la variación total en el modelo).

Interpretación

Utilice el R2 para determinar qué tan bien se ajusta el modelo a los datos. Cuanto mayor sea el valor de R2, mayor será la variación en los valores de respuesta que el modelo puede explicar. El R2 siempre está entre 0% y 100%.

Considere los siguientes problemas cuando interprete el valor de R2:
  • Suponiendo que los modelos tienen la misma estructura de covarianzas, el R2 aumenta cuando usted agrega otros factores fijos o covariables. Por lo tanto, el R2 es más útil cuando se comparan modelos del mismo tamaño.

  • Las muestras pequeñas no proporcionan una estimación precisa de la fuerza de la relación entre la respuesta y los predictores. Por ejemplo, si necesita que R2 sea más preciso, debe utilizar una muestra más grande (generalmente, 40 o más).

  • Los estadísticos de bondad de ajuste son simplemente una medida de qué tan bien se ajusta el modelo a los datos. Incluso cuando un modelo tenga un valor deseable, usted deberá revisar las gráficas de residuos para verificar que el modelo cumpla con los supuestos del modelo.

R-cuad. (ajust)

Utilice el R2 ajustado cuando desee comparar modelos con la misma estructura de covarianzas pero tenga un número diferente de factores fijos y covariables. Suponiendo que los modelos tienen la misma estructura de covarianzas, el R2 aumenta cuando usted agrega otros factores fijos o covariables. El valor de R2 ajustado incorpora el número de factores fijos y covariables incluidos en el modelo para ayudar a elegir el modelo correcto.

AICc y BIC

El criterio de información de Akaike corregido (AICc) y el criterio de información bayesiano (BIC) son medidas de la calidad relativa de un modelo que representan el ajuste y el número de términos en el modelo.

Interpretación

Utilice el AICc y el BIC para comparar diferentes modelos. Se prefieren valores más pequeños. Sin embargo, el modelo con el valor más pequeño para un conjunto de predictores no necesariamente ajusta los datos adecuadamente. Utilice también pruebas y gráficas de residuos para evaluar qué tan bien se ajusta el modelo a los datos.

Tanto el AICc como el BIC evalúan la probabilidad del modelo y luego aplican una penalización por agregar términos al modelo. La penalización reduce la tendencia a sobreajustar el modelo a los datos de la muestra. Esta reducción puede producir un modelo que tenga un mejor desempeño en general.

Como directriz general, cuando el número de parámetros es pequeño en relación con el tamaño de la muestra, el BIC tiene una penalización mayor por la adición de cada parámetro que el AICc. En estos casos, el modelo que minimiza el BIC tiene a ser más pequeño que el modelo que minimiza el AICc.

En algunos casos comunes, tales como diseños de cribado, el número de parámetros es generalmente grande en comparación con el tamaño de la muestra. En estos casos, el modelo que minimiza el AICc tiende a ser más pequeño que el modelo que minimiza el BIC. Por ejemplo, para un diseño de cribado definitivo de 13 corridas, el modelo que minimiza el AICc tenderá a ser más pequeño que el modelo que minimiza el BIC entre el conjunto de modelos con 6 o más parámetros.

Para obtener más información sobre AICc y BIC, vea Burnham y Anderson.1

1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644