La reducción del modelo consiste en la eliminación de términos del modelo, como el término correspondiente a una variable predictora o la interacción entre variables predictoras. La reducción del modelo permite simplificar un modelo y aumentar la precisión de las predicciones. Puede reducir los modelos en cualquier grupo de comandos de Minitab, incluyendo regresión, ANOVA, DOE y fiabilidad.
Un criterio para la reducción del modelo es la significancia estadística de un término. La eliminación de términos estadísticamente insignificantes incrementa la precisión de las predicciones del modelo. Para utilizar el criterio de significancia estadística, primero elija un nivel de significancia, como 0.05 o 0.15. A continuación, pruebe con diferentes términos para encontrar un modelo con tantos términos estadísticamente significativos como sea posible, pero sin términos estadísticamente insignificantes. Para utilizar el criterio de significancia estadística, los datos deben proporcionar suficientes grados de libertad para estimar la significancia estadística después de que se ajuste el modelo. Puede aplicar el criterio de significancia estadística de forma manual, o automáticamente con un procedimiento algorítmico, como la regresión escalonada. El propósito del criterio de significancia estadística es encontrar un modelo que cumpla con los objetivos. Sin embargo, el criterio de significancia estadística siempre produce el mejor modelo.
Además del criterio de significancia estadística, otros criterios estadísticos que Minitab calcula para los modelos incluyen S, R2 ajustado, R2 pronosticado, PRESS, Cp de Mallows y el Criterio de información de Akaike (AIC). Puede considerar uno o más de estos criterios cuando reduzca un modelo.
Al igual que la regresión escalonada, la regresión de los mejores subconjuntos es un procedimiento algorítmico que se puede utilizar para encontrar un modelo que cumpla con los objetivos. La regresión de los mejores subconjuntos examina todos los modelos e identifica los modelos que tienen los valores más altos de R2. En Minitab, la regresión de los mejores subconjuntos también muestra otros estadísticos, como el R2 ajustado y el R2 pronosticado. Puede considerar estos estadísticos al comparar modelos. Puesto que los mejores subconjuntos utilizan el R2, los modelos que la regresión de los mejores subconjuntos identifica como los mejores modelos pudieran tener o no tener solo términos estadísticamente significativos. Otros criterios estadísticos que se deben considerar al reducir un modelo son la multicolinealidad y la jerarquía. Estos dos conceptos se examinan con mayor detalle más adelante.
Los estadísticos que miden qué tan bien se ajusta el modelo a los datos pueden ayudarle a encontrar un modelo útil. Sin embargo, también debe utilizar el conocimiento del proceso y el buen juicio para decidir qué términos debe eliminar. Algunos términos podrían ser esenciales, mientras que otros podrían resultar demasiado costosos o demasiado difíciles de medir.
Como parte de una prueba de energía térmica solar, unos técnicos miden el flujo total de calor. Un ingeniero en energía desea determinar la manera en que el flujo total de calor es pronosticado por otras variables: insolación (la posición de los puntos focales en las direcciones este, sur y norte) y la hora del día. Utilizando el modelo completo de regresión, el ingeniero determina la siguiente relación entre el flujo de calor y las variables.
El ingeniero desea eliminar tantos términos insignificantes como sea posible para maximizar la precisión de las predicciones. El ingeniero decide utilizar 0.05 como el valor umbral de significancia estadística. El valor p para Hora del día (0.194) es el valor p más alto que es mayor que 0.05, por lo que el ingeniero elimina ese término en primer lugar. El ingeniero repite la regresión, eliminando un término insignificante cada vez, hasta que solo queden términos estadísticamente significativos. El modelo final reducido es el siguiente:
La multicolinealidad en regresión es una condición que ocurre cuando algunas variables predictoras incluidas en el modelo están correlacionadas con otras variables predictoras. La multicolinealidad severa es problemática, porque puede incrementar la varianza de los coeficientes de regresión, haciéndolos inestables. Cuando se elimina un término que tiene alta multicolinealidad, la significancia estadística y los valores de los coeficientes de los términos muy correlacionados pueden cambiar considerablemente. Por lo tanto, en presencia de multicolinealidad, el examinar múltiples estadísticos y cambiar el modelo un término a la vez es aún más importante. Por lo general, se debe reducir tanta multicolinealidad como sea posible antes de reducir un modelo. Para obtener más información sobre las maneras de reducir la multicolinealidad, vaya a Multicolinealidad en regresión.
Un equipo de investigadores de un centro médico desarrolla un modelo para predecir las puntuaciones de satisfacción del paciente. El modelo contiene varias variables, incluyendo el tiempo que los pacientes pasan con un médico y el tiempo que los pacientes pasan en exámenes médicos. Con estas dos variables en el modelo, la multicolinealidad es alta, con valores de FIV (factor de inflación de la varianza) de 8.91. Los valores mayores que 5 suelen indicar una multicolinealidad severa. El valor p para la cantidad de tiempo que los pacientes pasan con un profesional es 0.105, que no es significativo en el nivel 0.05. El valor de R2 pronosticado para este modelo es 22.9%.
El valor del R2 pronosticado para el modelo que solo incluye el tiempo de los exámenes cae de 22.9% a 10.6%. Aunque el tiempo que los pacientes pasan con un médico no es estadísticamente significativo en el nivel 0.05, la inclusión de esa variable hace que el valor del R2 pronosticado aumente más del doble. La alta multicolinealidad podría estar ocultando la importancia del predictor.
Un modelo jerárquico es aquel en el que para cada término incluido en el modelo, todos los términos de orden inferior también se encuentran en el modelo. Por ejemplo, supongamos que un modelo tiene cuatro factores: A, B, C y D. Si el término A*B*C está en el modelo, entonces los términos A, B, C, A*B, A*C y B*C también deben estar en el modelo. No se requiere que haya términos con D en el modelo, porque D no está en el término A*B*C. La estructura jerárquica también se aplica a la anidación. Si B(A) está en el modelo, entonces A también debe estar en el modelo para que el modelo sea jerárquico.
La jerarquía es conveniente porque los modelos jerárquicos se pueden convertir de unidades estandarizadas a unidades no estandarizadas. Las unidades estandarizadas son comunes cuando el modelo incluye términos de orden superior como las interacciones, porque la estandarización reduce la multicolinealidad causada por esos términos.
Puesto que la jerarquía resulta conveniente, la reducción de los modelos jerárquicos es una práctica común. Por ejemplo, una estrategia es utilizar el criterio del valor p para reducir el modelo en combinación con la jerarquía. En primer lugar, se eliminan los términos más complejos que son estadísticamente insignificantes. Si un término estadísticamente insignificante es parte de un término de interacción o de un término de orden superior, entonces el término se mantiene en el modelo. La selección escalonada del modelo que ofrece Minitab puede utilizar el criterio de jerarquía y el criterio de significancia estadística.
Un ingeniero de materiales que trabaja para un fabricante de productos de construcción está desarrollando un nuevo producto de aislamiento. El ingeniero diseña un experimento factorial completo de 2 niveles para evaluar varios factores que podrían afectar el valor de aislamiento del aislante. El ingeniero incluye las interacciones en el modelo para determinar si los efectos de los factores dependen unos de otros. Puesto que las interacciones crean multicolinealidad, el ingeniero codifica los predictores para reducir la multicolinealidad.
El valor p más alto del primer modelo que examina el ingeniero es 0.985 para la interacción entre temperatura de inyección y material. Debajo de la tabla de coeficientes codificados, el ingeniero puede examinar la ecuación de regresión en unidades no codificadas. La ecuación de regresión ayuda al ingeniero a entender el tamaño de los efectos en las mismas unidades que los datos.
Si el ingeniero solamente utiliza el criterio del valor p para reducir el modelo, entonces el siguiente modelo es no jerárquico, porque se elimina una interacción de dos factores que forma parte de una interacción de tres factores. Puesto que el modelo es no jerárquico, no existen los coeficientes no codificados. Por lo tanto, la ecuación de regresión para el modelo no jerárquico está en unidades codificadas. La ecuación de regresión codificada no proporciona ninguna información acerca de los efectos en las mismas unidades que los datos.
En lugar de utilizar solamente el criterio del valor p, el ingeniero decide eliminar primero los términos más complejos que tienen valores p altos. En este modelo, en vez de eliminar el término que tiene el valor p más alto, el ingeniero elimina la interacción de 3 factores que tiene el valor p más alto. El valor p más alto de una interacción de 3 factores es 0.466 para la interacción entre presión de inyección, temperatura de inyección y material.