Os graus de liberdade (DF) são a quantidade de informações em seus dados. A análise usa essas informações para estimar os valores de parâmetros populacionais desconhecidos. O DF total é determinado pelo número de observações em sua amostra. O DF para um termo mostra a quantidade de informação que o termo usa. Aumentar o tamanho da amostra fornece mais informações sobre a população, que aumenta o DF total. Aumentar o número de termos em seu modelo usa mais informações, o que diminui o DF disponível para estimar a variabilidade das estimativas dos parâmetros.
Se estiverem reunidas duas condições, então o Minitab particiona o DF para erro. A primeira condição é que deve haver termos que possam ser ajustados com os dados que não estão incluídos no modelo atual. Por exemplo, se você tiver um preditor contínuo com 3 valores distintos ou mais, é possível estimar um termo quadrático para esse preditor. Se o modelo não inclui o termo quadrático, então, um termo que os dados possam ajustar não está incluído no modelo e esta condição é satisfeita.
A segunda condição é de que os dados contenham replicações. As replicações são observações onde cada preditor tem o mesmo valor. Por exemplo, se você tiver 3 observações, onde a pressão é 5 e a temperatura é de 25, então, essas observações são 3 replicações.
Se estiverem reunidas as duas condições, então as duas partes do DF para erro são teste de ajuste (lack-of-fit) e erro puro. O DF para o teste de ajuste (lack-of-fit) permite um teste para saber se o modelo é adequado. O teste de ajuste (lack-of-fit) utiliza os graus de liberdade para detecção de ajuste (lack-of-fit). Quanto mais DF para erro puro, maior o poder do teste de ajuste (lack-of-fit).
A soma dos quadrados ajustada é uma medida da variação para as diferentes partes do modelo. A ordem dos preditores do modelo não afeta o cálculo da soma dos quadrados ajustada. Na tabela de análise de variância, o Minitab separa as somas dos quadrados em diferentes componentes que descrevem a variação devida a várias fontes.
O Minitab usa os a soma dos quadrados ajustada para calcular os valores-p na tabela ANOVA. O Minitab Minitab também usa a soma dos quadrados para calcular a estatística R2. Normalmente, você interpreta os valores-p e a estatística R2 em vez da soma dos quadrados.
Os quadrados médios ajustados medem o quanto a variação de um termo ou um modelo explica, assumindo que todos os outros termos estejam no modelo, independentemente de sua ordem no modelo. Diferentemente das somas dos quadrados ajustadas, os quadrados médios ajustados considerar os graus de liberdade.
O quadrado médio do erro ajustado (também chamado MSE ou s2) é a variância em torno dos valores ajustados.
O Minitab usa os quadrados médios ajustados para calcular os valores-p na tabela ANOVA. O Minitab também usa os quadrados médios ajustados para calcular a estatística R2 ajustada. Normalmente, você interpreta os valores-p e a estatística R2 ajustada em vez dos quadrados médios ajustados.
As somas dos quadrados sequenciais são medidas da variação para as diferentes partes do modelo. Ao contrário das somas dos quadrados ajustados, a soma sequencial dos quadrados depende da ordem em que os termos estão no modelo.
O Minitab não usa as somas dos quadrados sequenciais para calcular os valores-p ao analisar um experimento, mas pode usar as somas dos quadrados sequenciais quando você usa Modelo de Regressão Ajustada ou Modelo Linear Generalizado Ajustado. Normalmente, você interpreta os valores-p e a estatística R2 com base nas somas dos quadrados ajustados.
A contribuição exibe a porcentagem que cada fonte contribui para a variação total na resposta.
Percentagens mais elevadas indicam que a fonte é responsável por mais da variação na variável de resposta. A contribuição percentual para o modelo de superfície de resposta é a mesma que para o R2.
Aparece um Valor-f para cada teste na análise da tabela de variância.
O Minitab usa o valor-f para calcular o valor-p, que pode ser usado para a tomada de uma decisão sobre a significância estatística do teste. O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula. Um valor-f suficientemente grande indica significância estatística.
Se você quiser usar o valor-f para determinar se deve rejeitar a hipótese nula, compare o valor-f com o seu valor crítico. É possível calcular o valor crítico no Minitab ou encontrar o valor crítico de uma tabela distribuição F na maioria dos livros de estatísticas. Para obter mais informações sobre como usar o Minitab para calcular o valor crítico, acesse Usando a função de distribuição acumulada inversa (ICDF) e clique em "Usar o ICDF para calcular valores críticos".
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Para determinar se o modelo explica a variação na resposta, compare o valor-p do modelo com o seu nível de significância para avaliar a hipótese nula. A hipótese nula para o modelo é que o modelo não explica nenhuma variação na resposta. Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de concluir que o modelo explica a variação na resposta quando isso não acontece.
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Os blocos explicam as diferenças que podem ocorrer entre as execuções que são realizadas sob condições diferentes. Por exemplo, um engenheiro projeta um experimento para estudar a solda e não pode coletar todos os dados no mesmo dia. A qualidade da solda é afetada por diversas variáveis que mudam de um dia para outro e que o engenheiro não pode controlar, como a umidade relativa. Para levar em conta essas variáveis não controláveis, os grupos de engenharia realizam ensaios todos os dias em blocos separados. Os blocos representam a variação das variáveis não controláveis, de forma que estes efeitos não sejam confundidos com os efeitos dos fatores que o engenheiro quer estudar. Para obter mais informações sobre como Minitab atribui os ensaios aos blocos, acesse O que é um bloco?.
Para determinar se diferentes condições entre os ensaios alteram a resposta, compare o valor-p dos blocos com o seu nível de significância a fim de avaliar a hipótese nula. A hipótese nula é que condições diferentes não alteram a resposta.
Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de concluir que diferentes condições entre os ensaios alteram a resposta quando as condições não alteram.
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Se um grupo de termos é estatisticamente significativo, é possível concluir que pelo menos um dos termos no grupo tem um efeito sobre a resposta. Quando você usa significância estatística para decidir quais termos deve manter em um modelo, em geral não remove grupos inteiros de termos ao mesmo tempo. A significância estatística dos termos individuais podem mudar por causa dos termos do modelo.
Fonte | GL | SQ (Aj.) | QM (Aj.) | Valor F | Valor-P |
---|---|---|---|---|---|
Modelo | 10 | 447,766 | 44,777 | 17,61 | 0,003 |
Linear | 4 | 428,937 | 107,234 | 42,18 | 0,000 |
Material | 1 | 181,151 | 181,151 | 71,25 | 0,000 |
PressInj | 1 | 112,648 | 112,648 | 44,31 | 0,001 |
TempInj | 1 | 73,725 | 73,725 | 29,00 | 0,003 |
TempFria | 1 | 61,412 | 61,412 | 24,15 | 0,004 |
Interações de 2 fatores | 6 | 18,828 | 3,138 | 1,23 | 0,418 |
Material*PressInj | 1 | 0,342 | 0,342 | 0,13 | 0,729 |
Material*TempInj | 1 | 0,778 | 0,778 | 0,31 | 0,604 |
Material*TempFria | 1 | 4,565 | 4,565 | 1,80 | 0,238 |
PressInj*TempInj | 1 | 0,002 | 0,002 | 0,00 | 0,978 |
PressInj*TempFria | 1 | 0,039 | 0,039 | 0,02 | 0,906 |
TempInj*TempFria | 1 | 13,101 | 13,101 | 5,15 | 0,072 |
Erro | 5 | 12,712 | 2,542 | ||
Total | 15 | 460,478 |
Neste modelo, o teste para as interações com dois fatores não é estatisticamente significativo ao nível de 0,05.
Fonte | GL | SQ (Aj.) | QM (Aj.) | Valor F | Valor-P |
---|---|---|---|---|---|
Modelo | 5 | 442,04 | 88,408 | 47,95 | 0,000 |
Linear | 4 | 428,94 | 107,234 | 58,16 | 0,000 |
Material | 1 | 181,15 | 181,151 | 98,24 | 0,000 |
PressInj | 1 | 112,65 | 112,648 | 61,09 | 0,000 |
TempInj | 1 | 73,73 | 73,725 | 39,98 | 0,000 |
TempFria | 1 | 61,41 | 61,412 | 33,31 | 0,000 |
Interações de 2 fatores | 1 | 13,10 | 13,101 | 7,11 | 0,024 |
TempInj*TempFria | 1 | 13,10 | 13,101 | 7,11 | 0,024 |
Erro | 10 | 18,44 | 1,844 | ||
Total | 15 | 460,48 |
Se você reduzir o modelo em um termo de cada vez, começando com a interação com 2 fatores com o valor-p mais alto, a última interação com 2 fatores é estatisticamente significativa ao nível de 0,05.
O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.
Se o valor-p for maior do que o nível de significância, o teste não detecta nenhum teste de ajuste (lack-of-fit).