Un coeficiente de regresión describe el tamaño de la relación entre un predictor y la variable de respuesta. Los coeficientes son los números por los cuales se multiplican los valores del término en una ecuación de regresión.
Utilice el coeficiente para determinar si un cambio en una variable predictora hace que el evento sea más o menos probable. El coeficiente para un término representa el cambio en la función de enlace asociada con un aumento de una unidad codificada en ese término, mientras los otros términos se mantienen constantes.
El tamaño del efecto es generalmente una buena manera de evaluar la significancia práctica del efecto que un término tiene en la variable de respuesta. El tamaño del efecto no indica si un término es estadísticamente significativo porque los cálculos de significancia también consideran la variación en los datos de respuesta. Para determinar la significancia estadística, examine el valor p del término.
La relación entre el coeficiente y la probabilidad depende de varios aspectos del análisis, incluyendo la función de enlace, el evento de referencia para la respuesta y los niveles de referencia para los predictores categóricos que están en el modelo. Por lo general, los coeficientes positivos hacen que el evento sea más probable y los coeficientes negativos hacen que el evento sea menos probable. Un coeficiente estimado cercano a 0 implica que el efecto del predictor es pequeño.
El enlace logit ofrece la interpretación más natural de los coeficientes estimados y, por lo tanto, es el enlace predeterminado en Minitab. La interpretación utiliza el hecho de que las probabilidades de un evento de referencia son P(evento)/P(no evento) y presupone que los otros predictores permanecen constantes. Cuanto mayor sean las probabilidades logarítmicas, más probable será el evento de referencia. Por lo tanto, los coeficientes positivos indican que el evento se vuelve más probable y los coeficientes negativos indican que el evento se vuelve menos probable. El siguiente es un resumen de las interpretaciones de los diferentes tipos de factores.
El error estándar del coeficiente estima la variabilidad entre las estimaciones del coeficiente que se obtendrían si se tomara las muestras de la misma población una y otra vez. El cálculo asume que el tamaño de la muestra y los coeficientes a estimar se mantendrían iguales si se tomara la muestra una y otra vez.
Utilice el error estándar del coeficiente para medir la precisión de la estimación del coeficiente. Cuanto menor sea el error estándar, más precisa será la estimación.
Estos intervalos de confianza (IC) son rangos de valores que es probable que contengan el verdadero valor del coeficiente para cada término incluido en el modelo.
Puesto que las muestras son aleatorias, es poco probable que dos muestras de una población produzcan intervalos de confianza idénticos. Sin embargo, si toma muchas muestras aleatorias, un determinado porcentaje de los intervalos de confianza resultantes incluirá el parámetro de población desconocido. El porcentaje de estos intervalos de confianza que contiene el parámetro es el nivel de confianza del intervalo.
Utilice el intervalo de confianza para evaluar la estimación del coeficiente de la población para cada término en el modelo.
Por ejemplo, con un nivel de confianza de 95%, usted puede estar 95% seguro de que el intervalo de confianza contiene el valor del coeficiente para la población. El intervalo de confianza ayuda a evaluar la significancia práctica de los resultados. Utilice su conocimiento especializado para determinar si el intervalo de confianza incluye valores que tienen significancia práctica para su situación. Si el intervalo es demasiado amplio para ser útil, considere aumentar el tamaño de la muestra.
El valor Z es un estadístico de prueba para las pruebas de Wald que mide la relación entre el coeficiente y su error estándar.
Minitab utiliza el valor Z para calcular el valor p, que se usa para tomar una decisión acerca de la significancia estadística de los términos y el modelo. La prueba de Wald es exacta cuando el tamaño de la muestra es lo suficientemente grande como para que la distribución de los coeficientes de la muestra siga una distribución normal.
Un valor Z que esté lo suficientemente lejos de 0 indica que la estimación del coeficiente es lo suficientemente grande y precisa como para ser significativamente diferente de 0. En cambio, un valor Z pequeño que está cerca de 0 indica que la estimación del coeficiente es demasiado pequeña o demasiado imprecisa como para asegurar que el término tiene un efecto significativo sobre la respuesta.
Las pruebas en la tabla Desviación son pruebas de relación de probabilidad. La prueba en la muestra expandida de la tabla Coeficientes son pruebas de aproximación de Wald. Las pruebas de relación de probabilidad son más exactas para las muestras pequeñas que las pruebas de aproximación de Wald.
El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Las probabilidades más bajas proporcionan una evidencia más fuerte en contra de la hipótesis nula.
Las pruebas en la tabla Desviación son pruebas de relación de probabilidad. La prueba en la muestra expandida de la tabla Coeficientes son pruebas de aproximación de Wald. Las pruebas de relación de probabilidad son más exactas para las muestras pequeñas que las pruebas de aproximación de Wald.
Para determinar si un coeficiente es estadísticamente diferente de 0, compare el valor p del término con su nivel de significancia para evaluar la hipótesis nula. La hipótesis nula es que el coeficiente es igual a 0, lo que implica que no hay asociación entre el término y la respuesta.
Por lo general, un nivel de significancia (denotado como α o alfa) de 0.05 funciona adecuadamente. Un nivel de significancia de 0,05 indica un 5% de riesgo de concluir que el coeficiente no es 0 cuando es así.
El enlace logit ofrece la interpretación más natural de los coeficientes estimados y, por lo tanto, es el enlace predeterminado en Minitab. La interpretación utiliza el hecho de que las probabilidades de un evento de referencia son P(evento)/P(no evento) y presupone que los otros predictores permanecen constantes. Cuanto mayor sean las probabilidades logarítmicas, más probable será el evento de referencia. Por lo tanto, los coeficientes positivos indican que el evento se vuelve más probable y los coeficientes negativos indican que el evento se vuelve menos probable. El siguiente es un resumen de las interpretaciones de los diferentes tipos de factores.
El factor de inflación de la varianza (FIV) indica cuánto aumentó la varianza de un coeficiente debido a las correlaciones entre los predictores incluidos en el modelo.
Utilice el FIV para describir qué tanta multicolinealidad (que es la correlación entre los predictores) existe en un modelo. Todos los valores de FIV son 1 en la mayoría de los diseños factoriales, lo cual indica que los predictores no tienen multicolinealidad. La ausencia de multicolinealidad simplifica la determinación de significancia estadística. La inclusión de covariables en el modelo y la ocurrencia de corridas divergentes durante la recolección de datos son dos formas comunes de aumentar los valores de FIV, lo cual complica la interpretación de significancia estadística. También para respuestas binarias, los valores de FIV a menudo son mayores que 1.
FIV | Estado del predictor |
---|---|
FIV = 1 | No correlacionados |
1 < FIV < 5 | Moderadamente correlacionados |
FIV > 5 | Altamente correlacionados |
Sea cauteloso al utilizar la significancia estadística para elegir los términos que se eliminarán de un modelo en presencia de multicolinealidad. Agregue y elimine solo un término a la vez del modelo. Monitoree los cambios en los estadísticos de resumen del modelo, así como las pruebas de significancia estadística, mientras cambia el modelo.