Tabela Análise de Variância de Análise de experimento de filtragem definitivo

DF

Os graus de liberdade (DF) são a quantidade de informações em seus dados. A análise usa essas informações para estimar os valores de parâmetros populacionais desconhecidos. O DF total é determinado pelo número de observações em sua amostra. O DF para um termo mostra a quantidade de informação que o termo usa. Aumentar o tamanho da amostra fornece mais informações sobre a população, que aumenta o DF total. Aumentar o número de termos em seu modelo usa mais informações, o que diminui o DF disponível para estimar a variabilidade das estimativas dos parâmetros.

Se estiverem reunidas duas condições, então o Minitab particiona o DF para erro. A primeira condição é que deve haver termos que possam ser ajustados com os dados que não estão incluídos no modelo atual. Por exemplo, se você tiver um preditor contínuo com 3 valores distintos ou mais, é possível estimar um termo quadrático para esse preditor. Se o modelo não inclui o termo quadrático, então, um termo que os dados possam ajustar não está incluído no modelo e esta condição é satisfeita.

A segunda condição é de que os dados contenham replicações. As replicações são observações onde cada preditor tem o mesmo valor. Por exemplo, se você tiver 3 observações, onde a pressão é 5 e a temperatura é de 25, então, essas observações são 3 replicações.

Se estiverem reunidas as duas condições, então as duas partes do DF para erro são teste de ajuste (lack-of-fit) e erro puro. O DF para o teste de ajuste (lack-of-fit) permite um teste para saber se o modelo é adequado. O teste de ajuste (lack-of-fit) utiliza os graus de liberdade para detecção de ajuste (lack-of-fit). Quanto mais DF para erro puro, maior o poder do teste de ajuste (lack-of-fit).

Adj SS

A soma dos quadrados ajustada é uma medida da variação para as diferentes partes do modelo. A ordem dos preditores do modelo não afeta o cálculo da soma dos quadrados ajustada. Na tabela de análise de variância, o Minitab separa as somas dos quadrados em diferentes componentes que descrevem a variação devida a várias fontes.

Modelo de Adj SS
A soma dos quadrados ajustada para o modelo é a diferença entre a soma dos quadrados total e a soma dos quadrados dos erros. Ele é a soma de todas as somas dos quadrados sequenciais para termos no modelo.
Grupos e termos de Adj SS
A soma dos quadrados ajustada para um grupo de termos quantifica a variação nos dados de resposta que o grupo de termos explica.
Termo de Adj SS
A soma dos quadrados ajustada para um termo é o aumento na soma dos quadrados do modelo em relação a um modelo com apenas os outros termos. Ela quantifica a variação nos dados de resposta que é explicada pelo termo.
Erro de Adj SS
O erro da soma dos quadrados ajustada é a soma dos resíduos quadrados. Ele quantifica a variação nos dados que o modelo não explica.
Erro Puro de Adj SS
A soma dos quadrados de erro puro ajustado faz parte da soma dos quadrados do erro. A soma dos quadrados de erro puro existe quando existem os graus de liberdade para o erro puro. Para obter mais informações, acesse a seção sobre Graus de Liberdade (DF). Ela quantifica a variação nos dados para observações com os mesmos valores dos fatores, blocos e covariáveis.
Total de Adj SS
A soma dos quadrados ajustada é a soma de quadrados do modelo e a soma dos quadrados do erro. Ela quantifica a variação total nos dados.

Interpretação

O Minitab usa os a soma dos quadrados ajustada para calcular os valores-p na tabela ANOVA. O Minitab Minitab também usa a soma dos quadrados para calcular a estatística R2. Normalmente, você interpreta os valores-p e a estatística R2 em vez da soma dos quadrados.

Adj MS

Os quadrados médios ajustados medem o quanto a variação de um termo ou um modelo explica, assumindo que todos os outros termos estejam no modelo, independentemente de sua ordem no modelo. Diferentemente das somas dos quadrados ajustadas, os quadrados médios ajustados considerar os graus de liberdade.

O quadrado médio do erro ajustado (também chamado MSE ou s2) é a variância em torno dos valores ajustados.

Interpretação

O Minitab usa os quadrados médios ajustados para calcular os valores-p na tabela ANOVA. O Minitab também usa os quadrados médios ajustados para calcular a estatística R2 ajustada. Normalmente, você interpreta os valores-p e a estatística R2 ajustada em vez dos quadrados médios ajustados.

Seq SS

As somas dos quadrados sequenciais são medidas da variação para as diferentes partes do modelo. Ao contrário das somas dos quadrados ajustados, a soma sequencial dos quadrados depende da ordem em que os termos estão no modelo.

Modelo de Seq SS
A soma dos quadrados sequencial para o modelo é a diferença entre a soma dos quadrados total e a soma dos quadrados dos erros. Ele é a soma de todas as somas dos quadrados sequenciais para termos no modelo.
Grupos e termos de Seq SS
A soma dos quadrados sequencial para um grupo de termos no modelo é a soma das somas dos quadrados sequencial de todos os termos no grupo. Ela quantifica a variação nos dados de resposta que o grupo de termos explica.
Termo de Seq SS
A soma dos quadrados sequencial para um termo é o aumento na soma dos quadrados do modelo em comparação com um modelo que tem apenas os termos acima dele na tabela ANOVA. Ela quantifica o aumento na soma dos quadrados do modelo quando esse termo é adicionado a um modelo com os termos acima dele.
Erro de Seq SS
A soma dos quadrados do erro sequencial é a soma dos resíduos quadrados. Ela quantifica a variação nos dados que os preditores não explicam.
Erro puro de SS seq
A soma dos quadrados de erro puro sequencial faz parte da soma dos quadrados do erro. A soma dos quadrados de erro puro existe quando existem os graus de liberdade para o erro puro. Para obter mais informações, acesse a seção sobre Graus de Liberdade (DF). Ela quantifica a variação nos dados para observações com os mesmos valores dos fatores, blocos e covariáveis.
Total de Seq SS
A soma dos quadrados total é a soma de quadrados do modelo e a soma dos quadrados do erro. Ela quantifica a variação total nos dados.

Interpretação

O Minitab não usa as somas dos quadrados sequenciais para calcular os valores-p ao analisar um experimento, mas pode usar as somas dos quadrados sequenciais quando você usa Modelo de Regressão Ajustada ou Modelo Linear Generalizado Ajustado. Normalmente, você interpreta os valores-p e a estatística R2 com base nas somas dos quadrados ajustados.

Contribuição

A contribuição exibe a porcentagem que cada fonte na tabela Análise de Variância contribui para o total das somas sequenciais dos quadrados (SS Seq).

Interpretação

Percentagens mais elevadas indicam que a fonte é responsável por mais da variação na resposta.

Valor-f

Aparece um Valor-f para cada teste na análise da tabela de variância.

Valor-f do modelo
O valor-f é a estatística de teste usado para determinar se algum termo no modelo está associado com a resposta, incluindo covariáveis e termos de fator.
Valor-f para covariáveis como um grupo
O valor-f é a estatística de teste usada para determinar se alguma das covariáveis está associada com a resposta simultaneamente.
Valor-f para covariáveis individuais
O valor-f é a estatística de teste usada para determinar se uma covariável individual está associada com a resposta.
Valor-f para blocos
O valor-f é a estatística de teste usado para determinar se diferentes condições entre os blocos são associadas com a resposta.
Valor-f para os tipos de termos de fator
O valor-f é a estatística de teste usada para determinar se um grupo de termos está associado com a resposta. Exemplos de grupos de termos são efeitos lineares e interações bidirecionais.
Valor-f para termos individuais
O valor-f é a estatística de teste usado para determinar se o termo está associado com a resposta.
Valor-f para o teste de ajuste (lack-of-fit)
O valor-f é a estatística de teste usada para determinar se está faltando termos no modelo que incluem os fatores no experimento. Se blocos ou covariáveis forem removidos do modelo por um procedimento stepwise, o teste de qualidade de ajuste também deve incluir estes termos.

Interpretação

O Minitab usa o valor-f para calcular o valor-p, que pode ser usado para a tomada de uma decisão sobre a significância estatística do teste. O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula. Um valor-f suficientemente grande indica significância estatística.

Se você quiser usar o valor-f para determinar se deve rejeitar a hipótese nula, compare o valor-f com o seu valor crítico. É possível calcular o valor crítico no Minitab ou encontrar o valor crítico de uma tabela distribuição F na maioria dos livros de estatísticas. Para obter mais informações sobre como usar o Minitab para calcular o valor crítico, acesse Usando a função de distribuição acumulada inversa (ICDF) e clique em "Usar o ICDF para calcular valores críticos".

Valor-p – Modelo

O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.

Interpretação

Para determinar se o modelo explica a variação na resposta, compare o valor-p do modelo com o seu nível de significância para avaliar a hipótese nula. A hipótese nula para o modelo é que o modelo não explica nenhuma variação na resposta. Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de concluir que o modelo explica a variação na resposta quando isso não acontece.

Valor-p ≤ α: o modelo explica a variação na resposta
Se o valor p for menor ou igual ao nível de significância, você conclui que o modelo explica a variação na resposta.
Valor-p > α: não há evidências suficientes para concluir que o modelo explica a variação na resposta
Se o valor p for maior ou igual ao nível de significância, não é possível concluis que o modelo explica a variação na resposta. Talvez você deseje ajustar um novo modelo.

Valor-p – covariáveis

O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.

Em um experimento planejado, as covariáveis explicam variáveis que são mensuráveis, mas difícil de serem controladas. Por exemplo, os membros de uma equipe de qualidade em uma rede hospitalar projeta um experimento para estudar tempo de permanência dos pacientes internados para cirurgia de substituição total do joelho. Para o experimento, a equipe pode controlar fatores como o formato das instruções pré-cirúrgicas. Para evitar vício, a equipe registra os dados em covariáveis que eles não podem controlar, como a idade do paciente.

Interpretação

Para determinar se a associação entre a resposta e uma covariável é estatisticamente significativa, compare o valor-p da covariável com seu nível de significância para avaliar a hipótese nula. A hipótese nula é que o coeficiente da covariável é zero, o que implica a não existência de uma associação entre a covariável e a resposta.

Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de se concluir que o coeficiente para um termo covariável linear seja 0 quando, na verdade, ele não é.

As covariáveis podem aumentar a multicolinearidade no modelo. Os fatores de inflação da variância (VIFs) são uma medida de multicolinearidade. Ao avaliar a significância estatística dos termos para um modelo com covariáveis, considere os fatores de inflação da variância (VIFs). Para obter mais informações, acesse Tabela Coeficientes de Análise de experimento de filtragem definitivo e clique em VIF.

Valor-p ≤ α: a associação é estatisticamente significativa
Se o valor-p for menor ou igual ao nível de significância, é possível concluir que a associação entre a resposta e a covariável é estatisticamente significativa.
Valor-p > α: a associação não é estatisticamente significativa
Se o valor-p for maior do que o nível de significância, não é possível concluir que a associação entre a resposta e a covariável é estatisticamente significativa. Talvez você queira ajustar um modelo sem a covariável.

Valor-p – Blocos

O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.

Os blocos explicam as diferenças que podem ocorrer entre as execuções que são realizadas sob condições diferentes. Por exemplo, um engenheiro projeta um experimento para estudar a solda e não pode coletar todos os dados no mesmo dia. A qualidade da solda é afetada por diversas variáveis que mudam de um dia para outro e que o engenheiro não pode controlar, como a umidade relativa. Para levar em conta essas variáveis não controláveis, os grupos de engenharia realizam ensaios todos os dias em blocos separados. Os blocos representam a variação das variáveis não controláveis, de forma que estes efeitos não sejam confundidos com os efeitos dos fatores que o engenheiro quer estudar. Para obter mais informações sobre como Minitab atribui os ensaios aos blocos, acesse O que é um bloco?.

Interpretação

Para determinar se diferentes condições entre os ensaios alteram a resposta, compare o valor-p dos blocos com o seu nível de significância a fim de avaliar a hipótese nula. A hipótese nula é que condições diferentes não alteram a resposta.

Geralmente, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de concluir que diferentes condições entre os ensaios alteram a resposta quando as condições não alteram.

Valor-p ≤ α: as diferentes condições alteram a resposta
Se o valor-p for menor ou igual ao nível de significância, você deve concluir que as diferentes condições alteram a resposta.
Valor-p > α: Não há evidências suficientes para concluir que as diferentes condições alteram a resposta
Se o valor-p for maior que o nível de significância, é possível concluir que as diferentes condições alteram a resposta. Talvez você queira ajustar um modelo sem blocos.

Valor-p – termos lineares, termos quadrados, interações e grupos de termos

O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.

Interpretação

Se um termo do modelo for estatisticamente significativo, a interpretação dependerá do tipo de termo. As interpretações são da seguinte maneira:
  • Se uma covariável é significativa, é possível concluir que o coeficiente para ela não é igual a zero.
  • Se um fator categórico for significativo, é possível concluir que as médias de nível não são iguais.
  • Se um termo de interação é significativo, é possível concluir que a relação entre um fator e a resposta depende de outro fator no termo.
  • Se um termo quadrático é significativo, é possível concluir que a superfície de resposta contém curvatura.

Testes de grupos de termos

Se um grupo de termos é estatisticamente significativo, é possível concluir que pelo menos um dos termos no grupo tem um efeito sobre a resposta. Quando você usa significância estatística para decidir quais termos deve manter em um modelo, em geral não remove grupos inteiros de termos ao mesmo tempo. A significância estatística dos termos individuais podem mudar por causa dos termos do modelo.

Análise de Variância

FonteGLSQ (Aj.)QM (Aj.)Valor FValor-P
Modelo10447,76644,77717,610,003
  Linear4428,937107,23442,180,000
    Material1181,151181,15171,250,000
    PressInj1112,648112,64844,310,001
    TempInj173,72573,72529,000,003
    TempFria161,41261,41224,150,004
  Interações de 2 fatores618,8283,1381,230,418
    Material*PressInj10,3420,3420,130,729
    Material*TempInj10,7780,7780,310,604
    Material*TempFria14,5654,5651,800,238
    PressInj*TempInj10,0020,0020,000,978
    PressInj*TempFria10,0390,0390,020,906
    TempInj*TempFria113,10113,1015,150,072
Erro512,7122,542   
Total15460,478     

Neste modelo, o teste para o grupo das interações com dois fatores não é estatisticamente significativo ao nível de 0,05. Além disso, os testes para todas as interações individuais de 2 fatores não são estatisticamente significativos.

Análise de Variância

FonteGLSQ (Aj.)QM (Aj.)Valor FValor-P
Modelo5442,0488,40847,950,000
  Linear4428,94107,23458,160,000
    Material1181,15181,15198,240,000
    PressInj1112,65112,64861,090,000
    TempInj173,7373,72539,980,000
    TempFria161,4161,41233,310,000
  Interações de 2 fatores113,1013,1017,110,024
    TempInj*TempFria113,1013,1017,110,024
Erro1018,441,844   
Total15460,48     

Se você reduzir o modelo em um termo de cada vez, começando com a interação com 2 fatores com o valor-p mais alto, a última interação com 2 fatores é estatisticamente significativa ao nível de 0,05.

Valor-p – teste de ajuste (lack-of-fit)

O valor-p é uma probabilidade que mede a evidência contra a hipótese nula. As probabilidades inferiores fornecem evidências mais fortes contra a hipótese nula.

Interpretação

Para determinar se o modelo especifica corretamente a relação entre a resposta e os preditores, compare o valor-p para o teste de ajuste (lack-of-fit) com o seu nível de significância para avaliar a hipótese nula. A hipótese nula para o teste de ajuste (lack-of-fit) é que o modelo especifica corretamente a relação entre a resposta e os preditores. Em geral, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica um risco de 5% de concluir que o modelo não especifica corretamente a relação entre a resposta e os preditores quando o modelo não especifica a relação correta.
Valor-p ≤ α: o teste de ajuste (lack-of-fit) é estatisticamente significativo
Se o valor-p for menor ou igual ao nível de significância, conclua que o modelo não especifica corretamente a relação. Para melhorar o modelo, talvez seja necessário adicionar termos ou transformar seus dados.
Valor-p ≤ α: o teste de ajuste (lack-of-fit) não é estatisticamente significativo

Se o valor-p for maior do que o nível de significância, o teste não detecta nenhum teste de ajuste (lack-of-fit).