Le nombre total de degrés de liberté (DL) représente la quantité d'informations dans vos données. L'analyse utilise ces informations pour estimer les valeurs des paramètres de population inconnus. Le nombre total de DL est déterminé par le nombre d'observations dans votre échantillon. Les DL d'un terme affichent la quantité d'informations utilisée par ce terme. Le fait d'accroître l'effectif de l'échantillon permet d'obtenir davantage d'informations sur la population, ce qui augmente le nombre total de degrés de liberté. Le fait d'augmenter le nombre de termes dans votre modèle utilise plus d'informations, ce qui réduit le nombre de DL disponibles pour l'estimation de la variabilité des estimations de paramètres.
Deux conditions doivent être remplies pour que Minitab subdivise les DL de l'erreur. D'abord, le modèle en cours doit ne pas inclure certains termes que vous pouvez ajuster avec les données. Par exemple, si vous disposez d'un prédicteur avec au moins 3 valeurs différentes, vous pouvez estimer un terme quadratique pour ce prédicteur. Si le modèle ne contient pas le terme quadratique, un terme pouvant être ajusté par les données n'est pas inclus au modèle, ce qui permet de remplir cette condition.
La seconde condition est que les données doivent contenir des répliques. Les répliques sont des observations où tous les prédicteurs ont la même valeur. Par exemple, si vous disposez de 3 observations où la pression est 5 et la température est 25, les 3 observations sont des répliques.
Si ces deux conditions sont remplies, les deux composantes des DL de l'erreur correspondant à l'inadéquation de l'ajustement et à l'erreur pure. Les DL pour l'inéquation de l'ajustement permettent de déterminer si la forme du modèle est adaptée. Le test d'inadéquation de l'ajustement utilise les degrés de liberté de l'inadéquation. Plus les DL sont nombreux pour l'erreur pure, plus le test d'inadéquation de l'ajustement est efficace.
Les sommes des carrés ajustées sont des mesures de la variation des différentes parties du modèle. L'ordre des prédicteurs dans le modèle n'a aucun effet sur le calcul des sommes des carrés ajustées. Dans le tableau Analyse de variance, Minitab divise les sommes des carrés en différentes composantes qui décrivent la variation due à différentes sources.
Minitab utilise les sommes des carrés ajustées pour calculer les valeurs de p dans le tableau ANOVA. Minitab utilise aussi les sommes des carrés pour calculer la statistique R2. En général, vous interprétez les valeurs de p et la statistique R2 plutôt que les sommes des carrés.
Les carrés moyens ajustés mesurent la proportion de variation expliquée par un terme ou un modèle, en supposant que tous les autres termes sont dans le modèle, quel que soit l'ordre qu'ils y ont. Contrairement aux sommes des carrés ajustées, les carrés moyens ajustés tiennent compte des degrés de liberté.
Le carré moyen ajusté de l'erreur (également noté CME ou s2) est la variance autour des valeurs ajustées.
Minitab utilise les carrés moyens ajustés pour calculer les valeurs de p dans le tableau ANOVA. Minitab les utilise également pour calculer la statistique R2 ajusté. En général, vous interprétez les valeurs de p et la statistique R2 ajusté plutôt que les carrés moyens ajustés.
Les sommes des carrés séquentielles sont des mesures de la variation des différentes parties du modèle. Contrairement aux sommes des carrés ajustées, les sommes des carrés séquentielles dépendent de l'ordre des termes dans le modèle.
Minitab n'utilise pas les sommes des carrés séquentielles pour calculer les valeurs de p lorsque vous analysez un plan, mais peut utiliser les sommes des carrés séquentielles lorsque vous utilisez la fonction Ajuster le modèle de régression ou Ajuster le modèle linéaire général. En général, vous interprétez les valeurs de p et la statistique R2 en fonction de la somme des carrés ajustée.
La contribution est le pourcentage de la somme des carrés séquentielle totale (SomCar séq) pouvant être attribué à chaque source figurant dans le tableau de l'analyse de la variance.
Plus les pourcentages sont élevés, plus la part de la variation de la réponse expliquée par la source est importante.
Une valeur F apparaît pour chaque test dans le tableau d'analyse de la variance.
Minitab utilise la valeur F pour calculer la valeur de p, qui vous permet de déterminer si le test est significatif d'un point de vue statistique. La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude. Une valeur F suffisamment élevée est synonyme de signification statistique.
Si vous souhaitez utiliser la valeur F pour savoir si l'hypothèse nulle doit être rejetée, comparez-la à votre valeur critique. Vous pouvez calculer la valeur critique dans Minitab ou rechercher la valeur critique dans un tableau de loi F, disponible dans la plupart des livres de statistiques. Pour plus d'informations sur la façon d'utiliser Minitab pour calculer la valeur critique, accédez à la rubrique Utilisation de la fonction de répartition (CDF) inverse et cliquez sur "Utiliser la CDF inverse pour calculer des valeurs critiques".
La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.
Pour déterminer si le modèle explique la variation dans la réponse, comparez la valeur de p du modèle à votre seuil de signification pour évaluer l'hypothèse nulle. L'hypothèse nulle pour le modèle est qu'il n'explique en rien la variation dans la réponse. En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique 5 % de risques de conclure à tort que le modèle explique la variation dans la réponse.
Une valeur de p est une probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.
Dans un plan d'expériences, les covariables représentent les variables mesurables mais difficilement contrôlables. Par exemple, les membres de l'équipe qualité d'un réseau hospitalier mettent en place une expérience en vue d'étudier la durée d'hospitalisation des patients admis pour une arthroplastie du genou. Pour l'expérience, l'équipe peut contrôler des facteurs tels que le format des consignes préopératoires. Pour éviter tout biais, l'équipe enregistre des données relatives aux covariables qu'elle ne peut pas contrôler, telles que l'âge des patients.
Pour déterminer si l'association entre la réponse et une covariable est statistiquement significative, comparez la valeur de p de la covariable à votre seuil de signification pour évaluer l'hypothèse nulle. L'hypothèse nulle est que le coefficient de la covariable est égal à zéro, ce qui implique qu'il n'existe aucune association entre la covariable et la réponse.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique qu'il existe un risque de 5 % de conclure à tort que le coefficient d'un terme de covariable linéaire est égal à 0.
Les covariables peuvent augmenter la multicolinéarité dans le modèle. Les facteurs d'inflation de la variance (FIV) sont une mesure de multicolinéarité. Lorsque vous évaluez la signification statistique de termes pour un modèle comportant des covariables, tenez compte des facteurs d'inflation de la variance (FIV). Pour plus d'informations, reportez-vous à la rubrique Tableau des coefficients pour la fonction Analyser un plan de criblage définitif et cliquez sur FIV.
La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.
Les blocs rendent compte des différences qui peuvent survenir entre des essais réalisés dans différentes conditions. Par exemple, un ingénieur crée une expérience dans le but d'étudier un procédé de soudage, mais il ne peut pas collecter toutes les données le même jour. La qualité de la soudure dépend de plusieurs variables qui changent chaque jour et que l'ingénieur ne peut pas contrôler, comme l'humidité relative. Pour prendre en compte ces variables non contrôlable, l'ingénieur regroupe les essais effectués chaque jour dans des blocs distincts. Ces blocs tiennent compte de la variation causée par des variables non contrôlables, afin que les effets de ces dernières ne soient pas confondus avec les effets des facteurs que l'ingénieur souhaite étudier. Pour plus d'informations sur la façon dont Minitab attribue des essais aux blocs, reportez-vous à la rubrique Qu'est-ce qu'un bloc ?.
Pour déterminer si des conditions différentes entre les essais modifient la réponse, comparez la valeur de p des blocs à votre seuil de signification afin d'évaluer l'hypothèse nulle. Cette dernière avance que la différence de conditions ne modifie pas la réponse.
En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique un risque de 5 % de conclure à tort que des conditions différentes entre des essais modifient la réponse.
La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.
Si un groupe de termes est statistiquement significatif, vous pouvez en conclure qu'au moins un des termes dans le groupe a un effet sur la réponse. Lorsque vous vous fondez sur la signification statistique pour choisir les termes à conserver dans un modèle, vous n'enlevez généralement pas des groupes entiers de termes en même temps. La signification statistique de termes individuels peut varier selon les termes du modèle.
Source | DL | SomCar ajust | CM ajust | Valeur F | Valeur de p |
---|---|---|---|---|---|
Modèle | 10 | 447,766 | 44,777 | 17,61 | 0,003 |
Linéaires | 4 | 428,937 | 107,234 | 42,18 | 0,000 |
Matériau | 1 | 181,151 | 181,151 | 71,25 | 0,000 |
PressInj | 1 | 112,648 | 112,648 | 44,31 | 0,001 |
TempInj | 1 | 73,725 | 73,725 | 29,00 | 0,003 |
TempRafr | 1 | 61,412 | 61,412 | 24,15 | 0,004 |
Interactions à 2 facteur(s) | 6 | 18,828 | 3,138 | 1,23 | 0,418 |
Matériau*PressInj | 1 | 0,342 | 0,342 | 0,13 | 0,729 |
Matériau*TempInj | 1 | 0,778 | 0,778 | 0,31 | 0,604 |
Matériau*TempRafr | 1 | 4,565 | 4,565 | 1,80 | 0,238 |
PressInj*TempInj | 1 | 0,002 | 0,002 | 0,00 | 0,978 |
PressInj*TempRafr | 1 | 0,039 | 0,039 | 0,02 | 0,906 |
TempInj*TempRafr | 1 | 13,101 | 13,101 | 5,15 | 0,072 |
Erreur | 5 | 12,712 | 2,542 | ||
Total | 15 | 460,478 |
Dans ce modèle, le test pour le groupe d'interactions à deux facteurs n'est pas statistiquement significatif au niveau de 0,05. De même, aucun des tests pour les interactions individuelles à 2 facteurs n'est statistiquement significatif.
Source | DL | SomCar ajust | CM ajust | Valeur F | Valeur de p |
---|---|---|---|---|---|
Modèle | 5 | 442,04 | 88,408 | 47,95 | 0,000 |
Linéaires | 4 | 428,94 | 107,234 | 58,16 | 0,000 |
Matériau | 1 | 181,15 | 181,151 | 98,24 | 0,000 |
PressInj | 1 | 112,65 | 112,648 | 61,09 | 0,000 |
TempInj | 1 | 73,73 | 73,725 | 39,98 | 0,000 |
TempRafr | 1 | 61,41 | 61,412 | 33,31 | 0,000 |
Interactions à 2 facteur(s) | 1 | 13,10 | 13,101 | 7,11 | 0,024 |
TempInj*TempRafr | 1 | 13,10 | 13,101 | 7,11 | 0,024 |
Erreur | 10 | 18,44 | 1,844 | ||
Total | 15 | 460,48 |
Si vous réduisez le modèle un terme après l'autre, en commençant par l'interaction à 2 facteurs qui a la valeur de p la plus élevée, la dernière interaction à 2 facteurs est statistiquement significative au seuil de 0,05.
La valeur de p est la probabilité qui mesure le degré de certitude avec lequel il est possible d'invalider l'hypothèse nulle. Des probabilités faibles permettent d'invalider l'hypothèse nulle avec plus de certitude.
Si la valeur de p est supérieure au seuil de signification, le test ne détecte aucune inadéquation de l'ajustement.