S representa la distancia que separa a los valores de los datos de los valores ajustados. S se mide en las unidades de la respuesta.
Utilice S para evaluar qué tan bien el modelo describe la respuesta. S se mide en las unidades de la variable de respuesta y representa la desviación estándar de la separación entre los valores de datos y los valores ajustados. Mientras más bajo sea el valor de S, mejor describirá el modelo la respuesta. Sin embargo, un valor de S bajo no indica por sí solo que el modelo cumple con los supuestos del modelo. Debe examinar las gráficas de residuos para verificar los supuestos.
Por ejemplo, usted trabaja para una compañía de chips de patatas que examina los factores que afectan el número de chips desmenuzados por contenedor. Usted reduce el modelo a los predictores significativos y determina que S se calcula como 1.79. Este resultado indica que la desviación estándar de los puntos de datos alrededor de los valores ajustados es 1.79. Si está comparando modelos, los valores que son menores de 1.79 indican un mejor ajuste y los valores mayores indican un peor ajuste.
El R2 es el porcentaje de variación en la respuesta que es explicado por el modelo. Se calcula como 1 menos la relación de la suma de los cuadrados del error (que es la variación que no es explicada por el modelo) a la suma total de los cuadrados (que es la variación total en el modelo).
El R2 ajustado es el porcentaje de la variación en la respuesta que es explicada por el modelo, ajustado para el número de predictores en el modelo relativo al número de observaciones. El R2 ajustado se calcula como 1 menos la relación del cuadrado medio del error (MSE) con el cuadrado medio total (CM Total).
Utilice el R2 ajustado cuando desee comparar modelos que tengan diferentes números de predictores. El R2 siempre se incrementa cuando usted agrega un predictor al modelo, incluso cuando no haya una mejora real en el modelo. El valor de R2 ajustado incorpora el número de predictores del modelo para ayudarle a elegir el modelo correcto.
Modelo | % Patata | Tasa de enfriamiento | Temp. de cocción | R2 | R2 ajustado |
---|---|---|---|---|---|
1 | X | 52% | 51% | ||
2 | X | X | 63% | 62% | |
3 | X | X | X | 65% | 62% |
El primer modelo produce un R2 de más de 50 %. El segundo modelo agrega una tasa de enfriamiento al modelo. El R2 ajustado se incrementa, lo cual indica que la tasa de enfriamiento mejora el modelo. El tercer modelo, que agrega un temperatura de cocción, aumenta el R2 pero no el R2 ajustado. Estos resultados indican que la temperatura de cocción no mejora el modelo. Con base en estos resultados, considere eliminar la temperatura de cocción del modelo.
La suma de los cuadrados de error de predicción (PRESS) es una medida de la desviación entre los valores ajustados y los valores observados. PRESS es similar a la suma de cuadrados del error residual (SSE), que es la suma de residuos cuadrados. Sin embargo, PRESS utiliza un cálculo diferente para los residuos. La fórmula utilizada para calcular PRESS es equivalente a eliminar sistemáticamente cada una de las observaciones del conjunto de datos, estimando la ecuación de regresión y determinando hasta qué punto el modelo predice la observación eliminada.
Utilice PRESS para evaluar la capacidad de predicción del modelo. Por lo general, mientras más pequeño sea el valor de PRESS, mejor capacidad de predicción tendrá el modelo. Minitab utiliza PRESS para calcular el R2 de predicción, que generalmente se interpreta de un modo más intuitivo. En total, estas estadísticas pueden prevenir un ajuste excesivo del modelo. Un ajuste excesivo del modelo ocurre cuando se agregan términos para efectos que no son importantes en la población, aunque pueden parecer importantes en los datos de la muestra. El modelo pasa a estar a la medida de los datos de la muestra y, por lo tanto, podría no ser de utilidad para hacer predicciones sobre la población.
El R2 pronosticado se calcula con una fórmula que equivale a eliminar sistemáticamente cada una de las observaciones del conjunto de datos, estimar la ecuación de regresión y determinar qué tan bien predice el modelo la observación eliminada. El valor de R2 pronosticado varía entre 0 y 100%. (Aunque los cálculos de R2 pronosticado pueden producir valores negativos, para estos casos Minitab muestra cero.)
Utilice R2 pronosticado para determinar qué tan bien el modelo predice la respuesta para nuevas observaciones. Los modelos que tienen valores más grandes de R2 pronosticado tienen mejor capacidad de predicción.
Un R2 pronosticado que sea sustancialmente menor que R2 puede indicar que el modelo está sobreajustado. Un modelo sobreajustado se produce cuando se agregan términos para efectos que no son importantes en la población. El modelo se adapta a los datos de la muestra y, por lo tanto, es posible que no sea útil para hacer predicciones acerca de la población.
El R2 pronosticado también puede ser más útil que el R2 ajustado para comparar modelos, porque se calcula con observaciones que no se incluyen en el cálculo del modelo.
Por ejemplo, un analista de una consultora financiera desarrolla un modelo para predecir condiciones de mercado futuras. El modelo luce prometedor porque tiene un R2 de 87%. Sin embargo, el R2 pronosticado es de solamente 52%, lo cual indica que el modelo puede estar sobreajustado.
El criterio de información de Akaike corregido (AICc) y el criterio de información bayesiano (BIC) son medidas de la calidad relativa de un modelo que representan el ajuste y el número de términos en el modelo.
Utilice el AICc y el BIC para comparar diferentes modelos. Se prefieren valores más pequeños. Sin embargo, el modelo con el valor más pequeño para un conjunto de predictores no necesariamente ajusta los datos adecuadamente. Utilice también pruebas y gráficas de residuos para evaluar qué tan bien se ajusta el modelo a los datos.
Tanto el AICc como el BIC evalúan la probabilidad del modelo y luego aplican una penalización por agregar términos al modelo. La penalización reduce la tendencia a sobreajustar el modelo a los datos de la muestra. Esta reducción puede producir un modelo que tenga un mejor desempeño en general.
Como directriz general, cuando el número de parámetros es pequeño en relación con el tamaño de la muestra, el BIC tiene una penalización mayor por la adición de cada parámetro que el AICc. En estos casos, el modelo que minimiza el BIC tiene a ser más pequeño que el modelo que minimiza el AICc.
En algunos casos comunes, tales como diseños de cribado, el número de parámetros es generalmente grande en comparación con el tamaño de la muestra. En estos casos, el modelo que minimiza el AICc tiende a ser más pequeño que el modelo que minimiza el BIC. Por ejemplo, para un diseño de cribado definitivo de 13 corridas, el modelo que minimiza el AICc tenderá a ser más pequeño que el modelo que minimiza el BIC entre el conjunto de modelos con 6 o más parámetros.
Para obtener más información sobre AICc y BIC, vea Burnham y Anderson.1
El Cp de Mallows puede ayudar a elegir entre múltiples modelos de regresión candidatos. El Cp de Mallows compara el modelo completo con modelos con los mejores subconjuntos de predictores. Ayuda a alcanzar un equilibrio importante con el número de predictores en el modelo. Un modelo con demasiados predictores puede ser relativamente impreciso, mientras que un modelo con muy pocos predictores puede generar estimaciones sesgadas. El uso del Cp de Mallows para comparar modelos de regresión es válido solo cuando usted comienza con el mismo conjunto completo de predictores.
Un valor del Cp de Mallows que esté cerca del número de predictores más la constante indica que el modelo produce estimaciones relativamente precisas y no sesgadas.
Un valor del Cp de Mallows que sea mayor que el número de predictores más la constante indica que el modelo es sesgado o no se ajusta adecuadamente a los datos.