Um coeficiente descreve o tamanho e a direção da relação entre um termo no modelo e a variável de resposta. Para minimizar multicolinearidade entre os termos, os coeficientes são todos em unidades codificadas.
O coeficiente de um termo representa a alteração na resposta média associada um aumento de uma unidade codificada naquele termo, enquanto os outros termos no modelo são mantidos constantes. O sinal do coeficiente indica a direção da relação entre o termo e a resposta. O tamanho do efeito não indica se um termo é estatisticamente significativo porque os cálculos para significância também consideram a precisão da estimativa do coeficiente. Para determinar a significância estatística, examine o valor-p para o termo.
Termos que não envolvem fatores, como termos de covariáveis e termos de blocos, não usam unidades codificadas. A interpretação destes coeficientes é diferente.
O erro padrão do coeficiente estima a variabilidade entre a estimativa do coeficiente que seria obtida caso fossem extraídas amostras da mesma população por vezes seguidas. O cálculo pressupõe que o projeto experimental e os coeficientes para estimativa permaneceriam os mesmos caso fossem extraídas repetidas amostras.
Use o erro padrão do coeficiente para medir a precisão da estimativa do coeficiente. Quanto menor o erro padrão, mais precisa é a estimativa. Dividir o coeficiente pelo erro padrão calcula um valor-t. Se o valor-p associado a esta estatística de t for menor do que o seu nível de significância, você deve concluir que o coeficiente é estatisticamente significativo.
Estes intervalos de confiança (IC) são amplitudes de valores que apresentam a probabilidade de conter o verdadeiro valor de cada termo no modelo.
Como as amostras são aleatórias, é improvável que duas amostras de uma população produzam intervalos de confiança idênticos. No entanto, se você extrair muitas amostras aleatórias, uma determinada porcentagem dos intervalos de confiança resultantes conterá o parâmetro populacional desconhecido. A porcentagem destes intervalos de confiança que contém o parâmetro é o nível de confiança do intervalo.
Use o intervalo de confiança para avaliar a estimativa do coeficiente de população para cada termo no modelo.
Por exemplo, com um nível de confiança de 95%, é possível ter 95% de certeza de que o intervalo de confiança contém o valor da razão de chances para a população. O intervalo de confiança ajuda a avaliar a significância prática de seus resultados. Use seu conhecimento especializado para determinar se o intervalo de confiança inclui valores que tenham significância prática para a sua situação. Se o intervalo for muito amplo para ser útil, pense em aumentar o tamanho da amostra.
O valor-t mede a razão entre o coeficiente e seu erro padrão.
O Minitab usa o valor-t para calcular o valor-p, usado para testar se o coeficiente é significativamente diferente de 0.
É possível usar um valor-t para determinar se a hipótese nula deve ser rejeitada. No entanto, o valor-p é usado com mais frequência porque o limite para a rejeição da hipótese nula não depende dos graus de liberdade. Para obter mais informações sobre como usar o valor-t, acesse Usando o valor-t para determinar se a hipótese nula deve ser rejeitada.
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Para determinar se um coeficiente é estatisticamente diferente de 0, compare o valor-p do prazo com seu nível de significância a fim de avaliar a hipótese nula. A hipótese nula é que o coeficiente é igual a zero, o que implica a não existência de uma associação entre o termo e a resposta.
Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de se concluir que o coeficiente não é 0 quando, na verdade, ele é.
O fator de inflação da variância (VIF) indica o quanto a variação de um coeficiente é inflado devido a correlações entre os preditores no modelo.
Use o VIF para descrever quanta multicolinearidade (que é correlação entre preditores) existe em um modelo. O caso mais comum para modelos de filtragem de experimento é ter apenas efeitos principais. Nesse caso, o VIF é igual a 1, a menos que haja covariáveis ou ensaios danificados. O confundimento parcial, que é comum em modelos de filtragem de experimento, aumenta multicolinearidade. A multicolinearidade complica a determinação da significância estatística. A inclusão de covariáveis no modelo e a ocorrência de ensaios danificados durante a coleta de dados também pode aumentar os valores do VIF. Use as diretrizes a seguir para interpretar o VIF:
VIF | Status do preditor |
---|---|
VIF = 1 | Não correlacionados |
1 < VIF < 5 | Moderadamente correlacionados |
VIF > 5 | Altamente correlacionados |
Seja cauteloso ao usar significância estatística para escolher os termos a serem removidos de um modelo quando houver multicolinearidade. Adicione e remova apenas um termo de cada vez do modelo. Monitore as mudanças nas estatísticas de resumo do modelo, bem como os testes de significância estatística, conforme você muda o modelo.