Tableau d'analyse de la variance pour la fonction Analyser une réponse binaire pour un plan de criblage définitif

DL

Le nombre total de degrés de liberté (DL) représente la quantité d'informations dans vos données. L'analyse utilise ces informations pour estimer la valeur des coefficients. Le nombre total de degrés de liberté est égal au nombre de lignes dans les données moins un. Les DL d'un terme indiquent le nombre de coefficients utilisée par ce terme. L'augmentation du nombre de termes dans votre modèle y ajoute des coefficients, ce qui réduit le nombre de DL pour l'erreur. Les DL pour l'erreur sont les degrés de liberté restants, non utilisés dans le modèle.

Remarque

Si un plan factoriel à deux niveaux ou un plan de Plackett-Burman comporte des points centraux, un DL est destiné au test de courbure. Si le terme des points centraux est compris dans le modèle, la ligne de la courbure fait partie du modèle. Si le terme des points centraux ne s'y trouve pas, la ligne de la courbure fait partie de l'erreur utilisée pour tester les termes présents dans le modèle. Dans les plans de surface de réponse et les plans de criblage définitifs, vous pouvez estimer les termes au carré, et le test de courbure n'est donc pas nécessaire.

Somme des carrés d'écart séquentielle

La somme des carrés d'écart séquentielle mesure la somme des carrés d'écart pour différentes composantes du modèle. A la différence de la somme des carrés d'écart ajustée, la somme des carrés d'écart séquentielle dépend de l'ordre de saisie des termes dans le modèle. Dans le tableau des sommes des carrés d'écart, Minitab divise la somme des carrés d'écart séquentielle en différentes composantes qui décrivent les différentes sources qui influencent la somme des carrés d'écart.
Modèle
La somme des carrés d'écart séquentielle pour le modèle de régression quantifie la part de la somme des carrés d'écart totale que le modèle permet d'expliquer.
Terme
La somme des carrés d'écart séquentielle pour un terme quantifie la différence constatée dans un modèle avant et après l'inclusion d'un terme particulier.
Erreur
La somme des carrés d'écart séquentielle pour l'erreur quantifie la somme des carrés d'écart non expliquée par le modèle.
Total
La somme des carrés d'écart séquentielle totale correspond à la somme des carrés d'écart séquentielle pour le modèle, plus la somme des carrés d'écart séquentielle pour l'erreur. La somme des carrés d'écart séquentielle totale quantifie la somme des carrés d'écart totale dans les données.

Interprétation

Lorsque vous indiquez le recours à la somme des carrés d'écart séquentielle pour les tests, Minitab utilise cette dernière pour calculer les valeurs de p du modèle de régression et des termes individuels. En général, vous interprétez les valeurs de p à la place de la somme des carrés d'écart séquentielle.

Contribution

La contribution affiche le pourcentage de contribution de chaque source dans le tableau ANOVA à la somme des carrés d'écart séquentielle totale.

Interprétation

Des pourcentages élevés indiquent que la source est responsable d'une plus gande part de la somme des carrés d'écart dans la variable de réponse. La contribution en pourcentage pour le modèle de régression est identique au R2 de la somme des carrés d'écart.

Somme des carrés d'écart ajustée

Les sommes des carrés ajustées correspondent aux mesures de variation des différentes composantes dans le modèle. L'ordre des prédicteurs dans le modèle n'a pas d'incidence sur le calcul des sommes des carrés d'écart ajustées. Dans le tableau des sommes des carrés d'écart, Minitab divise la somme des carrés d'écart en différentes composantes qui décrivent les différentes sources qui influencent la somme des carrés d'écart.

Modèle
La somme des carrés d'écart ajustée pour le modèle de régression quantifie la différence entre le modèle actuel et le modèle constant.
Terme
La somme des carrés d'écart ajustée pour un terme quantifie la différence entre un modèle contenant le terme et un modèle ne le contenant pas.
Erreur
La somme des carrés d'écart ajustée pour l'erreur quantifie la somme des carrés d'écart non expliquée par le modèle.
Total
La somme des carrés d'écart ajustée totale correspond à la somme des carrés d'écart ajustée pour le modèle, plus la somme des carrés d'écart ajustée pour l'erreur. La somme des carrés d'écart ajustée totale quantifie la somme des carrés d'écart totale dans les données.

Interprétation

Minitab utilise les sommes des carrés d'écart ajustées pour calculer la valeur de p d'un terme. Minitab utilise également les sommes des carrés d'écart ajustées pour calculer la statistique R2 de la somme des carrés d'écart. En général, vous interprétez les valeurs de p et la statistique R2 à la place des sommes des carrés d'écart.

Moyenne ajustée

La somme des carrés d'écart de la moyenne ajustée mesure la part de la somme des carrés d'écart qu'explique un terme ou un modèle pour chaque degré de liberté. Le calcul de la somme des carrés d'écart de la moyenne ajustée pour chaque terme suppose que tous les autres termes figurent dans le modèle.

Interprétation

Minitab utilise la valeur du Khi deux pour calculer la valeur de p d'un terme. En général, vous interprétez les valeurs de p plutôt que les carrés moyens ajustés.

Khi deux

Chaque terme du tableau ANOVA a une valeur de Khi deux. La valeur de Khi deux est la statistique de test qui détermine si un terme ou un modèle est associé avec la réponse.

Interprétation

Minitab utilise la statistique de Khi deux pour calculer la valeur de p, qui vous permet de déterminer si des termes sont significatifs et de choisir le modèle approprié. La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude. Une statistique de Khi deux suffisamment élevée engendre une petite valeur de p, indiquant que le terme ou le modèle est statistiquement significatif.

Valeur de p - Modèle

La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.

Interprétation

Pour déterminer si les données permettent d'établir qu'au moins un coefficient dans le modèle de régression est différent de 0, comparez la valeur de p pour la régression à votre seuil de signification pour évaluer l'hypothèse nulle. L'hypothèse nulle pour la valeur de p pour le modèle est que tous les coefficients des termes du modèle de régression sont de 0. En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique 5 % de risque de conclure à tort qu'au moins un coefficient est différent de 0.
Valeur de p ≤ α : au moins un coefficient est différent de 0.
Si la valeur de p est inférieure ou égale au seuil de signification, vous pouvez en conclure qu'au moins un coefficient est différent de 0.
Valeur de p > α : vous n'êtes pas en mesure de conclure qu'au moins un coefficient est différent de 0.
Si la valeur de p est supérieure au seuil de signification, vous ne pouvez pas conclure qu'au moins un coefficient est différent de 0. Il est sans doute nécessaire d'ajuster un nouveau modèle.

Les tests du tableau Somme des carrés d'écart sont des tests du rapport de vraisemblance. Les tests figurant dans l'affichage développé du tableau Coefficients sont des tests d'approximation de Wald. Les tests du rapport de vraisemblance sont plus exacts pour les petits échantillons que les tests d'approximation de Wald.

Valeur de p - Terme

La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.

Interprétation

Pour déterminer si l'association entre la réponse et chacun des termes du modèle est statistiquement significative, comparez la valeur de p du terme à votre seuil de signification pour évaluer l'hypothèse nulle. L'hypothèse nulle est qu'il n'existe aucune association entre le terme et la réponse. En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort qu'il existe une association.
Valeur de p ≤ α : l'association est statistiquement significative
Si la valeur de p est inférieure ou égale au seuil de signification, vous pouvez conclure qu'il existe une association statistiquement significative entre la variable de réponse et le terme.
Valeur de p > α : l'association n'est pas statistiquement significative
Si la valeur de p est supérieure au seuil de signification, vous ne pouvez pas conclure qu'il existe une association statistiquement significative entre la variable de réponse et le terme. Il est sans doute nécessaire de réajuster le modèle sans le terme.
Si plusieurs prédicteurs ne présentent aucune association statistiquement significative avec la réponse, vous pouvez réduire le modèle en supprimant ces termes un par un. Pour plus d'informations sur la suppression de termes d'un modèle, reportez-vous à la rubrique Réduction du modèle.
Si un terme d'un modèle est statistiquement significatif, l'interprétation dépend du type de terme concerné. Les interprétations sont les suivantes :
  • Si un facteur continu est significatif, vous pouvez en conclure que le coefficient de ce facteur est différent de zéro.
  • Si un facteur de catégorie est significatif, vous pouvez en conclure que la probabilité de l'événement n'est pas la même pour tous les niveaux du facteur.
  • Si un terme d'interaction est significatif, vous pouvez en conclure que la relation entre un facteur et la probabilité de l'événement dépend des autres facteurs du terme.
  • Si un terme quadratique est significatif, vous pouvez en conclure que la surface de réponse présente une courbure.

Les tests du tableau Analyse de la variance sont des tests du rapport de vraisemblance. Les tests figurant dans l'affichage développé du tableau Coefficients sont des tests d'approximation de Wald. Les tests du rapport de vraisemblance sont plus exacts pour les petits échantillons que les tests d'approximation de Wald.