Un coeficiente de regresión describe el tamaño de la relación entre un predictor y la variable de respuesta. Los coeficientes son los números por los cuales se multiplican los valores del término en una ecuación de regresión.
Utilice el coeficiente para determinar si un cambio en una variable predictora hace que el evento sea más probable o menos probable. El coeficiente estimado de un predictor representa el cambio en la función de enlace por cada cambio de unidad en el predictor, mientras los demás predictores en el modelo se mantienen constantes. La relación entre el coeficiente y el número de eventos depende de diversos aspectos del análisis, incluyendo la función de enlace y los niveles de referencia para los predictores categóricos que están en el modelo. Generalmente, los coeficientes positivos hacen que el evento sea más probable y los coeficientes negativos hacen que el evento sea menos probable. Un coeficiente estimado cercano a cero implica que el efecto del predictor es pequeño o no existente.
La interpretación de los coeficientes estimados para los predictores categóricos está relacionada con el nivel de referencia del predictor. Los coeficientes positivos indican que el evento es más probable a ese nivel del predictor que al nivel de referencia del factor. Los coeficientes negativos indican que el evento es menos probable a ese nivel del predictor que al nivel de referencia.
El error estándar del coeficiente estima la variabilidad entre las estimaciones del coeficiente que se obtendrían si se tomara las muestras de la misma población una y otra vez. El cálculo asume que el tamaño de la muestra y los coeficientes a estimar se mantendrían iguales si se tomara la muestra una y otra vez.
Utilice el error estándar del coeficiente para medir la precisión de la estimación del coeficiente. Cuanto menor sea el error estándar, más precisa será la estimación.
Estos intervalos de confianza (IC) son rangos de valores que es probable que contengan el verdadero valor del coeficiente para cada término incluido en el modelo. El cálculo de los intervalos de confianza utiliza la distribución normal. El intervalo de confianza es exacto si el tamaño de la muestra es lo suficientemente grande como para que la distribución del coeficiente de la muestra siga una distribución normal.
Puesto que las muestras son aleatorias, es poco probable que dos muestras de una población produzcan intervalos de confianza idénticos. Sin embargo, si toma muchas muestras aleatorias, un determinado porcentaje de los intervalos de confianza resultantes incluirá el parámetro de población desconocido. El porcentaje de estos intervalos de confianza que contiene el parámetro es el nivel de confianza del intervalo.
Utilice el intervalo de confianza para evaluar la estimación del coeficiente de la población para cada término en el modelo.
Por ejemplo, con un nivel de confianza de 95 %, se puede estar un 95 % seguro de que el intervalo de confianza contiene el valor del coeficiente para la población. El intervalo de confianza ayuda a evaluar la significancia práctica de los resultados. Utilice el conocimiento especializado para determinar si el intervalo de confianza incluye valores que tienen significancia práctica para su situación. Si el intervalo es demasiado amplio para ser útil, considere aumentar el tamaño de la muestra.
El valor Z es un estadístico de prueba para las pruebas de Wald que mide la relación entre el coeficiente y su error estándar.
Minitab utiliza el valor Z para calcular el valor p, que se usa para tomar una decisión acerca de la significancia estadística de los términos y el modelo. La prueba de Wald es exacta cuando el tamaño de la muestra es lo suficientemente grande como para que la distribución de los coeficientes de la muestra siga una distribución normal.
Un valor Z que esté lo suficientemente lejos de 0 indica que la estimación del coeficiente es lo suficientemente grande y precisa como para ser significativamente diferente de 0. En cambio, un valor Z pequeño que está cerca de 0 indica que la estimación del coeficiente es demasiado pequeña o demasiado imprecisa como para asegurar que el término tiene un efecto significativo sobre la respuesta.
Las pruebas en la tabla Desviación son pruebas de relación de probabilidad. La prueba en la muestra expandida de la tabla Coeficientes son pruebas de aproximación de Wald. Las pruebas de relación de probabilidad son más exactas para las muestras pequeñas que las pruebas de aproximación de Wald.
El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Las probabilidades más bajas proporcionan una evidencia más fuerte en contra de la hipótesis nula.
Las pruebas en la tabla Desviación son pruebas de relación de probabilidad. La prueba en la muestra expandida de la tabla Coeficientes son pruebas de aproximación de Wald. Las pruebas de relación de probabilidad son más exactas para las muestras pequeñas que las pruebas de aproximación de Wald.
El factor de inflación de la varianza (FIV) indica cuánto se infla la varianza de un coeficiente debido a las correlaciones entre los predictores incluidos en el modelo.
Utilice los FIV para describir cuánta multicolinealidad (que es la correlación entre los predictores) existe en un análisis de regresión. La multicolinealidad es problemática porque puede aumentar la varianza de los coeficientes de regresión, lo que hace difícil evaluar el impacto individual que cada uno de los predictores correlacionados tiene sobre la respuesta.
FIV | Estado del predictor |
---|---|
FIV = 1 | No correlacionados |
1 < FIV < 5 | Moderadamente correlacionados |
FIV > 5 | Altamente correlacionados |
Para obtener más información sobre la multicolinealidad y sobre cómo mitigar los efectos de la multicolinealidad, revise Multicolinealidad en la regresión.
Cuando usted estandariza las variables continuas, los coeficientes representan un cambio de una unidad en las variables estandarizadas. Por lo general, los predictores continuos se estandarizan para reducir la multicolinealidad o para poner las variables en una escala común.
La forma en que se usan los coeficientes codificados depende del método de estandarización. La interpretación exacta de los coeficientes también depende de aspectos del análisis tales como la función de enlace. Los coeficientes positivos hacen que el evento sea más probable. Los coeficientes negativos hacen que el evento sea menos probable. Un coeficiente estimado cercano a 0 implica que el efecto del predictor es pequeño.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que el predictor cambie en 1 unidad en la escala codificada.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados y el tiempo en segundos. Para la temperatura, la codificación hace que 0 corresponda a 50 grados centígrados y 1 corresponda a 100 grados centígrados. Para el tiempo, la codificación hace que 0 corresponda a 30 segundos y 1 corresponda a 60 segundos. El coeficiente de temperatura representa un aumento de 50 grados centígrados. El coeficiente de tiempo representa un aumento de 30 segundos.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que la variable predictora cambie en 1 desviación estándar.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados y el tiempo en segundos. La desviación estándar de la temperatura es 3.7 grados centígrados. La desviación estándar del tiempo es 18.3 segundos. El coeficiente de temperatura representa un aumento de 3.7 grados centígrados. El coeficiente de tiempo representa un aumento de 18.3 segundos.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que el predictor cambie en 1.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados y el tiempo en segundos. El coeficiente de temperatura representa un aumento de 1 grado centígrado. El coeficiente de tiempo representa un aumento de 1 segundo.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que la variable predictora cambie en 1 desviación estándar.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados y el tiempo en segundos. La desviación estándar de la temperatura es 3.7 grados centígrados. La desviación estándar del tiempo es 18.3 segundos. El coeficiente de temperatura representa un aumento de 3.7 grados centígrados. El coeficiente de tiempo representa un aumento de 18.3 segundos.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que la variable predictora cambie en una cantidad igual al divisor.
Por ejemplo, un modelo utiliza la longitud en metros y la corriente eléctrica en amperios. El divisor es 1,000. El coeficiente de longitud representa un aumento de 1 milímetro. El coeficiente de corriente eléctrica representa un incremento de 1 miliamperio.
Cada coeficiente representa el cambio esperado en la media de la respuesta transformada dado que el predictor cambie en 1 unidad en la escala codificada.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados. La codificación hace que 0 corresponda a 50 grados centígrados y 1 corresponda a 100 grados centígrados. El coeficiente de temperatura representa un aumento de 50 grados centígrados. El coeficiente de temperatura es 1.8. Cuando la temperatura aumenta en 1 unidad codificada, la temperatura aumenta de 50 grados y el logaritmo natural de las probabilidades aumenta en 1.8.
Cada coeficiente representa el cambio esperado en el logaritmo natural de las probabilidades del evento dado que la variable predictora cambie en 1 desviación estándar.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados. La desviación estándar de la temperatura es 3.7 grados centígrados. El coeficiente codificado de temperatura es 1.4. Cuando la temperatura aumenta en 1 unidad codificada, la temperatura aumenta 3.7 grados centígrados y el logaritmo natural de las probabilidades aumenta en 1.4.
Cada coeficiente representa el cambio esperado en el logaritmo natural de las probabilidades del evento dado que el predictor cambie en 1.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados. El coeficiente de temperatura representa un aumento de 1 grado centígrado. El coeficiente de temperatura es 2.3. Cuando la temperatura aumenta en 1 unidad codificada, la temperatura aumenta 1 grado centígrado y el logaritmo natural de las probabilidades aumenta en 2.3.
Cada coeficiente representa el cambio esperado en el logaritmo natural de las probabilidades del evento dado que la variable predictora cambie en 1 desviación estándar.
Por ejemplo, un modelo utiliza la temperatura en grados centígrados. La desviación estándar de la temperatura es 3.7 grados centígrados. El coeficiente de temperatura es 1.4. Cuando la temperatura aumenta en 1 unidad codificada, la temperatura aumenta 3.7 grados centígrados y el logaritmo natural de las probabilidades aumenta en 1.4.
Cada coeficiente representa el cambio esperado en el logaritmo natural de las probabilidades del evento dado que la variable predictora cambie en una cantidad igual al divisor.
Por ejemplo, un modelo utiliza la longitud en metros y la corriente eléctrica en amperios. El divisor es 1,000. El coeficiente de longitud representa un aumento de 1 milímetro. El coeficiente de longitud es 5.6. Cuando la longitud aumenta en 1 unidad codificada, la longitud aumenta 1 milímetro y el logaritmo natural de las probabilidades aumenta en 5.6. El coeficiente de corriente eléctrica representa un incremento de 1 miliamperio.
Para la regresión de Poisson, Minitab muestra dos tipos de ecuaciones de regresión. La primera ecuación relaciona el número de eventos con la respuesta transformada. La forma de esta primera ecuación depende de la función de enlace.
La segunda ecuación relaciona los predictores con la respuesta transformada. Si el modelo contiene predictores continuos y categóricos, la segunda ecuación se puede separar para cada combinación de categorías. Para obtener más información sobre cómo elegir el número de ecuaciones que se mostrarán, vaya a Seleccionar los resultados que se mostrarán para Ajustar modelo de Poisson.
Utilice las ecuaciones para examinar la relación entre la respuesta y las variables predictoras.
La primera ecuación muestra la relación entre el número de eventos y la respuesta transformada debido a la función de enlace de logaritmo natural.
Las segundas ecuaciones muestran cómo el tamaño del tornillo y la temperatura se relacionan con la respuesta transformada. Cuando el tamaño del tornillo es grande, el coeficiente de temperatura es aproximadamente −0.003. Cuando el tamaño del tornillo es pequeño, el coeficiente es aproximadamente −0.0005. Para estas ecuaciones, mientras mayor es la temperatura, menor es el número de defectos que se producen. Sin embargo, la temperatura tiene un efecto más fuerte sobre el número de defectos cuando el tamaño del tornillo es grande.
Def. descoloración | = | exp(Y') |
---|
Tamaño del tornillo | |||
---|---|---|---|
grande | Y' | = | 4.649 - 0.003285 Temperatura |
pequeño | Y' | = | 4.105 - 0.000481 Temperatura |
Si el modelo no es jerárquico y usted estandarizó los predictores continuos, la ecuación de regresión está en unidades codificadas. Para obtener más información, consulte la sección sobre Coeficientes codificados. Para obtener más información sobre la jerarquía, vaya a ¿Qué son modelos jerárquicos?.