Um coeficiente de regressão descreve o tamanho e a direção da relação entre um preditor e variável de resposta. Os coeficientes são os números pelos quais os valores do termo são multiplicados em uma equação de regressão.
Use o coeficiente para determinar se uma mudança na variável preditora pode tornar o evento mais ou menos provável. O coeficiente de um termo representa a alteração na função de ligação associada com um aumento de uma unidade codificada naquele termo, enquanto os outros termos no modelo são mantidos constantes.
O tamanho do efeito é, em geral, uma boa maneira de avaliar a significância prática do efeito que um termo exerce sobre a variável de resposta. O tamanho do efeito não indica se um termo é estatisticamente significativo porque os cálculos para significância também consideram a variação nos dados de resposta. Para determinar a significância estatística, examine o valor-p para o termo.
A relação entre o coeficiente e a probabilidade depende de diversos aspectos da análise, incluindo a função de ligação, o evento de referência da resposta e os níveis de referência das preditoras categóricas que estão no modelo. Geralmente, os coeficientes positivos tornam o evento mais provável e os coeficientes negativos tornam o evento menos provável. Um coeficiente estimado próximo de 0 sugere que o efeito do preditor é pequeno.
A função de ligação logit fornece a interpretação mais natural dos coeficientes estimados e é, portanto, a ligação padrão no Minitab. A interpretação usa o fato que a chance de um evento de referência ser P(evento)/P(não-evento) e assume que os outros preditores permanecem constantes. Quanto maior for a chance do log, mais provável o evento de referência será. Portanto, coeficientes positivos indicam que o evento se torna mais provável e coeficientes negativos indicam que o evento se torna menos provável. Um resumo das interpretações para diferentes tipos de fatores está a seguir.
O erro padrão do coeficiente estima a variabilidade entre a estimativa do coeficiente que seria obtida caso fossem extraídas amostras da mesma população por vezes seguidas. O cálculo pressupõe que o tamanho da amostra e os coeficientes para estimativa permaneceriam os mesmos caso fossem extraídas repetidas amostras.
Use o erro padrão do coeficiente para medir a precisão da estimativa do coeficiente. Quanto menor o erro padrão, mais precisa é a estimativa.
Estes intervalos de confiança (IC) são amplitudes de valores que apresentam a probabilidade de conter o verdadeiro valor de cada termo no modelo.
Como as amostras são aleatórias, é improvável que duas amostras de uma população produzam intervalos de confiança idênticos. No entanto, se você extrair muitas amostras aleatórias, uma determinada porcentagem dos intervalos de confiança resultantes conterá o parâmetro populacional desconhecido. A porcentagem destes intervalos de confiança que contém o parâmetro é o nível de confiança do intervalo.
Use o intervalo de confiança para avaliar a estimativa do coeficiente de população para cada termo no modelo.
Por exemplo, com um nível de confiança de 95%, é possível ter 95% de certeza de que o intervalo de confiança contém o valor da razão de chances para a população. O intervalo de confiança ajuda a avaliar a significância prática de seus resultados. Use seu conhecimento especializado para determinar se o intervalo de confiança inclui valores que tenham significância prática para a sua situação. Se o intervalo for muito amplo para ser útil, pense em aumentar o tamanho da amostra.
O valor Z é uma estatística de teste para testes de Wald que mede a razão entre o coeficiente e seu erro padrão.
O Minitab usa o valor Z para calcular o valor-p, que pode ser usado para a tomada de uma decisão sobre a significância estatística dos termos e do modelo. O teste de Wald é exato quando o tamanho da amostra é grande o bastante de forma que a distribuição dos coeficientes da amostra segue uma distribuição normal.
Um valor-z que está suficientemente longe de 0 indica que a estimativa do coeficiente é amplo e preciso o bastante para ser estatisticamente diferente de 0. Inversamente, um valor-z que está perto de 0 indica que a estimativa do coeficiente é muito pequena ou muito imprecisa para estar certa de que o termo tem um efeito na resposta.
Os testes na tabela Deviance são testes da razão de verossimilhança. O teste na exibição expandida da tabela Coeficientes são os testes de aproximação Wald. Os testes da razão de verossimilhança são mais precisos para amostras pequenas do que os testes de aproximação Wald.
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Os testes na tabela Deviance são testes da razão de verossimilhança. O teste na exibição expandida da tabela Coeficientes são os testes de aproximação Wald. Os testes da razão de verossimilhança são mais precisos para amostras pequenas do que os testes de aproximação Wald.
Para determinar se um coeficiente é estatisticamente diferente de 0, compare o valor-p do prazo com seu nível de significância a fim de avaliar a hipótese nula. A hipótese nula é que o coeficiente é igual a zero, o que implica a não existência de uma associação entre o termo e a resposta.
Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de se concluir que o coeficiente não é 0 quando, na verdade, ele é.
A função de ligação logit fornece a interpretação mais natural dos coeficientes estimados e é, portanto, a ligação padrão no Minitab. A interpretação usa o fato que a chance de um evento de referência ser P(evento)/P(não-evento) e assume que os outros preditores permanecem constantes. Quanto maior for a chance do log, mais provável o evento de referência será. Portanto, coeficientes positivos indicam que o evento se torna mais provável e coeficientes negativos indicam que o evento se torna menos provável. Um resumo das interpretações para diferentes tipos de fatores está a seguir.
O fator de inflação da variância (VIF) indica o quanto a variação de um coeficiente é inflado devido a correlações entre os preditores no modelo.
Use o VIF para descrever quanta multicolinearidade (que é correlação entre preditores) existe em um modelo. Todos os valores de VIF são 1 na maioria dos experimentos fatoriais, indicando que os preditores não têm nenhuma multicolinearidade. A ausência de multicolinearidade simplifica a determinação de significância estatística. A inclusão de covariáveis no modelo e a ocorrência de ensaios danificados durante a coleta de dados são duas maneiras comuns pelas quais os valores de VIF aumentam, o que complica a interpretação de significância estatística.
VIF | Status do preditor |
---|---|
VIF = 1 | Não correlacionados |
1 < VIF < 5 | Moderadamente correlacionados |
VIF > 5 | Altamente correlacionados |
Seja cauteloso ao usar significância estatística para escolher os termos a serem removidos de um modelo quando houver multicolinearidade. Adicione e remova apenas um termo de cada vez do modelo. Monitore as mudanças nas estatísticas de resumo do modelo, bem como os testes de significância estatística, conforme você muda o modelo.