Tabla Resumen del modelo para Ajustar modelo lineal general

Encuentre definiciones y ayuda para interpretar cada uno de los estadísticos en la tabla Resumen del modelo.

S

S representa la desviación estándar de la distancia entre los valores de datos y los valores ajustados. S se mide en las unidades de la respuesta.

Interpretación

Utilice S para evaluar qué tan bien el modelo describe la respuesta. S se mide en las unidades de la variable de respuesta y representa la distancia que separa a los valores de los datos de los valores ajustados. Mientras más bajo sea el valor de S, mejor describirá el modelo la respuesta. Sin embargo, un valor de S bajo no indica por sí solo que el modelo cumple con los supuestos del modelo. Debe examinar las gráficas de residuos para verificar los supuestos.

Por ejemplo, usted trabaja para una compañía de chips de patatas que examina los factores que afectan el número de chips desmenuzados por contenedor. Usted reduce el modelo a los predictores significativos y determina que S se calcula como 1.79. Este resultado indica que la desviación estándar de los puntos de datos alrededor de los valores ajustados es 1.79. Si está comparando modelos, los valores que son menores de 1.79 indican un mejor ajuste y los valores mayores indican un peor ajuste.

R-cuad.

R2 es el porcentaje de variación en la respuesta que se explica por el modelo. Se calcula como 1 menos la relación de la suma de los cuadrados del error (que es la variación que no es explicada por el modelo) a la suma total de los cuadrados (que es la variación total en el modelo).

Interpretación

Utilice el R2 para determinar qué tan bien se ajusta el modelo a los datos Mientras mayor sea el valor de R2, mejor se ajustará el modelo a los datos. R2 siempre está entre 0% y 100%.

Usted puede utilizar una gráfica de línea ajustada para ilustrar gráficamente diferentes valores de R2. La primera gráfica ilustra un modelo de regresión simple que explica un 85.5% de la variación en la respuesta. La segunda gráfica ilustra un modelo que explica un 22.6% de la variación en la respuesta. Mientras mayor sea la variable que es explicada por el modelo, más cerca estarán los puntos de los datos de la línea de regresión ajustada. Teóricamente, si un modelo pudiera explicar el 100% de la variación, los valores ajustados siempre serían iguales a los valores observados y todos los puntos de los datos estarían sobre la línea ajustada. Sin embargo, incluso si el R2 es 100%, el modelo no necesariamente predice las nuevas observaciones de manera adecuada.
Tenga en cuenta los siguientes problemas al interpretar el valor R2:
  • R2 siempre aumenta cuando se agregan más predictores a un modelo. Por ejemplo, el mejor modelo de cinco predictores siempre tendrá un R2 que será al menos tan alto como el mejor modelo de cuatro predictores. Por lo tanto, R2 es más útil cuando se comparan modelos del mismo tamaño.

  • Las muestras pequeñas no proporcionan una estimación precisa de la fuerza de la relación entre la respuesta y los predictores. Por ejemplo, si necesita que R2 sea más preciso, debe utilizar una muestra más grande (generalmente, 40 o más).

  • Los estadísticos de bondad de ajuste son simplemente una medida de qué tan bien se ajusta el modelo a los datos. Incluso cuando un modelo tenga un valor deseable, usted deberá revisar las gráficas de residuos para verificar que el modelo cumpla con los supuestos del modelo.

R-cuad. (ajust)

El R2 ajustado es el porcentaje de la variación en la respuesta que es explicada por el modelo, ajustado para el número de predictores en el modelo relativo al número de observaciones. El R2 ajustado se calcula como 1 menos la relación del cuadrado medio del error (MSE) con el cuadrado medio total (CM Total).

Interpretación

Utilice R2 ajustado cuando desee comparar modelos que tengan diferentes números de predictores. R2 siempre aumenta cuando se agrega un predictor al modelo, incluso cuando no haya una mejora real en el modelo. El valor de R2 ajustado incorpora el número de predictores del modelo para ayudar a elegir el modelo correcto.

Por ejemplo, usted trabaja para una compañía de chips de patatas que examina los factores que afectan el número de chips desmenuzados por contenedor. Obtiene los siguientes resultados a medida que agrega los predictores de forma escalonada hacia delante.
Modelo % Patata Tasa de enfriamiento Temp. de cocción R2 R2 ajustado
1 X     52 =
1 X X   63 62
3 X X X = =

El primer modelo produce un R2 de más de 50%. El segundo modelo agrega una tasa de enfriamiento al modelo. El R2 ajustado se incrementa, lo cual indica que la tasa de enfriamiento mejora el modelo. El tercer modelo, que agrega un temperatura de cocción, aumenta el R2 pero no el R2 ajustado. Estos resultados indican que la temperatura de cocción no mejora el modelo. Con base en estos resultados, considere eliminar la temperatura de cocción del modelo.

PRESS

La suma de los cuadrados de error de predicción (PRESS) es una medida de la desviación entre los valores ajustados y los valores observados. PRESS es similar a la suma de cuadrados del error residual (SSE), que es la suma de residuos cuadrados. Sin embargo, PRESS utiliza un cálculo diferente para los residuos. La fórmula utilizada para calcular PRESS es equivalente a eliminar sistemáticamente cada una de las observaciones del conjunto de datos, estimando la ecuación de regresión y determinando hasta qué punto el modelo predice la observación eliminada.

Interpretación

Utilice PRESS para evaluar la capacidad de predicción del modelo. Por lo general, mientras más pequeño sea el valor de PRESS, mejor capacidad de predicción tendrá el modelo. Minitab utiliza PRESS para calcular el R2 de predicción, que generalmente se interpreta de un modo más intuitivo. En total, estas estadísticas pueden prevenir un ajuste excesivo del modelo. Un ajuste excesivo del modelo ocurre cuando se agregan términos para efectos que no son importantes en la población, aunque pueden parecer importantes en los datos de la muestra. El modelo pasa a estar a la medida de los datos de la muestra y, por lo tanto, podría no ser de utilidad para hacer predicciones sobre la población.

R-cuad.(pred)

El R2 pronosticado se calcula con una fórmula que equivale a eliminar sistemáticamente cada una de las observaciones del conjunto de datos, estimar la ecuación de regresión y determinar qué tan bien predice el modelo la observación eliminada. El valor de R2 pronosticado varía entre 0 y 100%. (Aunque los cálculos de R2 pronosticado pueden producir valores negativos, para estos casos Minitab muestra cero.)

Interpretación

Utilice R2 pronosticado para determinar qué tan bien el modelo predice la respuesta para nuevas observaciones. Los modelos que tienen valores más grandes de R2 pronosticado tienen mejor capacidad de predicción.

Un R2 pronosticado que sea sustancialmente menor que R2 puede indicar que el modelo está sobreajustado. Un modelo sobreajustado se produce cuando se agregan términos para efectos que no son importantes en la población. El modelo se adapta a los datos de la muestra y, por lo tanto, es posible que no sea útil para hacer predicciones acerca de la población.

R2 pronosticado también puede ser más útil que R2 ajustado para comparar modelos, porque se calcula con observaciones que no se incluyen en el cálculo del modelo.

Por ejemplo, un analista de una consultora financiera desarrolla un modelo para predecir condiciones de mercado futuras. El modelo luce prometedor porque tiene un R2 de 87%. Sin embargo, el R2 pronosticado es 52%, lo que indica que el modelo puede estar demasiado ajustado.

AICc y BIC

El criterio de información de Akaike corregido (AICc) y el criterio de información bayesiano (BIC) son medidas de la calidad relativa de un modelo que representan el ajuste y el número de términos en el modelo.

Interpretación

Utilice el AICc y el BIC para comparar diferentes modelos. Se prefieren valores más pequeños. Sin embargo, el modelo con el valor más pequeño para un conjunto de predictores no necesariamente ajusta los datos adecuadamente. Utilice también pruebas y gráficas de residuos para evaluar qué tan bien se ajusta el modelo a los datos.

Tanto el AICc como el BIC evalúan la probabilidad del modelo y luego aplican una penalización por agregar términos al modelo. La penalización reduce la tendencia a sobreajustar el modelo a los datos de la muestra. Esta reducción puede producir un modelo que tenga un mejor desempeño en general.

Como directriz general, cuando el número de parámetros es pequeño en relación con el tamaño de la muestra, el BIC tiene una penalización mayor por la adición de cada parámetro que el AICc. En estos casos, el modelo que minimiza el BIC tiene a ser más pequeño que el modelo que minimiza el AICc.

En algunos casos comunes, tales como diseños de cribado, el número de parámetros es generalmente grande en comparación con el tamaño de la muestra. En estos casos, el modelo que minimiza el AICc tiende a ser más pequeño que el modelo que minimiza el BIC. Por ejemplo, para un diseño de cribado definitivo de 13 corridas, el modelo que minimiza el AICc tenderá a ser más pequeño que el modelo que minimiza el BIC entre el conjunto de modelos con 6 o más parámetros.

Para obtener más información sobre AICc y BIC, vea Burnham y Anderson.1

Cp de Mallows

El Cp de Mallows puede ayudar a elegir entre múltiples modelos de regresión candidatos. El Cp de Mallows compara el modelo completo con modelos con los mejores subconjuntos de predictores. Ayuda a alcanzar un equilibrio importante con el número de predictores en el modelo. Un modelo con demasiados predictores puede ser relativamente impreciso, mientras que un modelo con muy pocos predictores puede generar estimaciones sesgadas. El uso del Cp de Mallows para comparar modelos de regresión es válido solo cuando usted comienza con el mismo conjunto completo de predictores.

Interpretación

Un valor del Cp de Mallows que esté cerca del número de predictores más la constante indica que el modelo produce estimaciones relativamente precisas y no sesgadas.

Un valor del Cp de Mallows que sea mayor que el número de predictores más la constante indica que el modelo es sesgado o no se ajusta adecuadamente a los datos.

1 Burnham, K. P., & Anderson, D. R. (2004). Multimodel inference: Understanding AIC and BIC in model selection. Sociological Methods & Research, 33(2), 261-304. doi:10.1177/0049124104268644