Tableau des valeurs ajustées et des diagnostics pour la fonction Analyser un plan factoriel

Obtenez des définitions et bénéficiez de conseils en matière d'interprétation pour chaque statistique dans le tableau des valeurs ajustées et des diagnostics.

Valeur ajustée

Les valeurs ajustées sont également appelées . Les valeurs ajustées sont des estimations ponctuelles de la réponse moyenne des valeurs des prédicteurs. Les valeurs des prédicteurs sont également appelées valeurs X.

Interprétation

Les valeurs ajustées sont calculées en indiquant les valeurs de x correspondant à chaque observation de l'ensemble de données dans l'équation du modèle.

Par exemple, si l'équation est y = 5 + 10x, la valeur ajustée pour la valeur x, 2, est 25 (25 = 5 + 10(2)).

Les observations dont les valeurs ajustées sont très différentes de la valeur observée peuvent être des valeurs aberrantes. Les observations possédant des valeurs de prédicteurs aberrantes peuvent être influentes. Si Minitab détermine que vos données comprennent des valeurs aberrantes ou influentes, vos résultats comprennent le tableau Ajustements et diagnostics pour les observations aberrantes, qui indique quelles sont ces observations. Les observations aberrantes signalées par Minitab suivent mal l'équation de régression proposée. Toutefois, il est normal d'obtenir quelques observations aberrantes. Par exemple, selon les critères propres aux valeurs résiduelles normalisées élevées, vous pouvez vous attendre à ce qu'environ 5 % de vos observations soient signalées pour leur valeur résiduelle normalisée importante. Pour plus d'informations sur les valeurs aberrantes, reportez-vous à la rubrique Observations aberrantes.

ErT ajust

L'erreur type de l'ajustement (ErT ajust) estime la variation de la réponse moyenne estimée pour les valeurs de variables spécifiées. Le calcul de l'intervalle de confiance de la réponse moyenne utilise l'erreur type de la valeur ajustée. Les erreurs types ne sont jamais négatives.

Interprétation

Utilisez l'erreur type de l'ajustement pour mesurer la précision de l'estimation de la réponse moyenne. Plus l'erreur type est faible, plus la prévision de la réponse moyenne est précise. Par exemple, un analyste développe un modèle pour prévoir des délais de livraison. Pour un ensemble de paramètres de variables, le modèle prévoit un délai de livraison moyen de 3,80 jours. L'erreur type de l'ajustement pour ces paramètres est de 0,08 jours. Pour un deuxième ensemble de paramètres de variables, le modèle produit le même délai de livraison moyen avec une erreur type de l'ajustement de 0,02 jours. Avec le second ensemble de paramètres de variables, l'analyste peut affirmer avec plus de certitude que le délai de livraison moyen est proche de 3,80 jours.

Avec la valeur ajustée, l'erreur type de l'ajustement permet de créer un intervalle de confiance pour la réponse moyenne. Par exemple, selon le nombre de degrés de liberté, un intervalle de confiance à 95 % s'étend approximativement sur deux erreurs types au-dessus ou en dessous de la moyenne prévue. Dans l'exemple des délais de livraison, pour la réponse moyenne prévue de 3,80 jours lorsque l'erreur type est de 0,08, l'intervalle de confiance à 95 % est (3,64 ; 3,96) jours. Vous pouvez être certain à 95 % que la moyenne de la population se situe à l'intérieur de cette étendue. Lorsque l'erreur type est de 0,02, l'intervalle de confiance à 95 % est (3,76 ; 3,84) jours. L'intervalle de confiance pour le second ensemble de paramètres de variables est plus étroit, car l'erreur type est plus faible.

Intervalle de confiance pour la valeur ajustée (IC à 95 %)

Ces intervalles de confiance (IC) sont des étendues de valeurs ayant de fortes chances de contenir la réponse moyenne pour la population qui présente les valeurs observées pour les prédicteurs ou les facteurs du modèle.

Les échantillons étant aléatoires, il est peu probable que deux échantillons d'une population donnent des intervalles de confiance identiques. Cependant, si vous prélevez de nombreux échantillons, un certain pourcentage des intervalles de confiance obtenus contiendra le paramètre de population inconnu. Le pourcentage de ces intervalles de confiance contenant le paramètre est le niveau de confiance de l'intervalle.

L'intervalle de confiance est composé de deux parties :
Estimation ponctuelle
L'estimation ponctuelle est l'estimation du paramètre calculé à partir des données échantillons. L'intervalle de confiance est centré sur cette valeur.
Marge d'erreur
La marge d'erreur définit la largeur de l'intervalle de confiance et est déterminée par la variabilité observée dans l'échantillon, l'effectif de l'échantillon et le niveau de confiance. Pour calculer la limite supérieure de l'intervalle de confiance, la marge d'erreur est ajoutée à l'estimation ponctuelle. Pour calculer la limite inférieure de l'intervalle de confiance, la marge d'erreur est soustraite de l'estimation ponctuelle.

Interprétation

Utilisez l'intervalle de confiance afin d'évaluer l'estimation de la valeur ajustée pour les valeurs observées des variables.

Par exemple, avec un niveau de confiance de 95 %, vous pouvez être sûr à 95 % que l'intervalle de confiance comprend la moyenne de la population pour les valeurs spécifiées des variables de prévision ou facteurs dans le modèle. L'intervalle de confiance vous aide à évaluer la signification pratique de vos résultats. Utilisez vos connaissances spécialisées pour déterminer si l'intervalle de confiance comporte des valeurs ayant une signification pratique pour votre situation. Un grand intervalle de confiance traduit moins de certitude quant à la moyenne des futures valeurs. Si l'intervalle est trop grand pour être utile, vous devez sans doute augmenter votre effectif d'échantillon.

Val rés

Une valeur résiduelle (ei) est la différence entre une valeur observée (y) et la valeur ajustée correspondante (), qui est la valeur prévue par le modèle.

Ce nuage de points représente le poids d'un échantillon d'hommes adultes en fonction de leur taille. La droite de régression ajustée représente la relation entre la taille et le poids. Si la taille est égale à 6 pieds, la valeur ajustée pour le poids correspond à 190 livres. Si le poids réel est 200 livres, la valeur résiduelle est 10.

Interprétation

Représentez les valeurs résiduelles afin de déterminer si votre modèle est adapté et vérifie les hypothèses de régression. L'examen des valeurs résiduelles peut fournir des informations utiles sur l'ajustement du modèle aux données. En général, les valeurs résiduelles doivent être distribuées de manière aléatoire sans aucun schéma clair ni aucune valeur aberrante. Si Minitab détermine que vos données comprennent des observations aberrantes, il les indique dans les résultats, dans le tableau Ajustements et diagnostics pour les observations aberrantes. Les observations aberrantes signalées par Minitab suivent mal l'équation de régression proposée. Toutefois, il est normal d'obtenir quelques observations aberrantes. Par exemple, en vous fondant sur les critères de valeurs résiduelles élevées, vous pouvez vous attendre à ce qu'environ 5 % de vos observations soient signalées pour leur valeur résiduelle importante. Pour plus d'informations sur les valeurs aberrantes, reportez-vous à la rubrique Observations aberrantes.

Val. résid. norm

La valeur résiduelle normalisée est égale à la valeur résiduelle (ei) divisée par une estimation de son écart type.

Interprétation

Utilisez les valeurs résiduelles normalisées pour détecter les valeurs aberrantes. Les valeurs résiduelles normalisées supérieures à 2 et inférieures à −2 sont généralement considérées comme élevées. Le tableau Ajustements et diagnostics pour les observations aberrantes signale ces observations avec un "R". Les observations signalées par Minitab suivent mal l'équation de régression proposée. Toutefois, il est normal d'obtenir quelques observations aberrantes. Par exemple, selon les critères propres aux valeurs résiduelles normalisées élevées, vous pouvez vous attendre à ce qu'environ 5 % de vos observations soient signalées pour leur valeur résiduelle normalisée importante. Pour plus d'informations, reportez-vous à la rubrique Observations aberrantes.

Les valeurs résiduelles normalisées sont utiles car les valeurs résiduelles brutes peuvent ne pas indiquer de façon correcte les valeurs aberrantes. La variance de chaque valeur résiduelle brute peut varier selon la valeur de x qui lui est associée. Cette variation inégale complique l'évaluation de la grandeur des valeurs résiduelles brutes. La normalisation des valeurs résiduelles règle ce problème en convertissant les différentes variances sur une échelle commune.

Valeurs résiduelles supprimées

Le calcul de chaque valeur résiduelle studentisée supprimée revient à supprimer systématiquement chaque observation de l'ensemble de données, à estimer l'équation de régression et à évaluer la capacité du modèle à prévoir l'observation supprimée. Chaque valeur résiduelle supprimée studentisée est également normalisée en divisant la valeur résiduelle supprimée d'une observation par une estimation de son écart type. L'omission de l'observation permet de déterminer le comportement du modèle sans elle. Si une observation possède une valeur résiduelle supprimée studentisée élevée (si sa valeur absolue est supérieure à 2), il peut s'agir d'une valeur aberrante dans les données.

Interprétation

Utilisez les valeurs résiduelles supprimées studentisées pour détecter des valeurs aberrantes. Chaque observation est omise pour déterminer la capacité du modèle à prévoir la réponse lorsqu'elle n'est pas incluse dans le processus d'ajustement du modèle. Les valeurs résiduelles supprimées studentisées supérieures à 2 ou inférieures à −2 sont généralement considérées comme élevées. Les observations signalées par Minitab suivent mal l'équation de régression proposée. Toutefois, il est normal d'obtenir quelques observations aberrantes. Par exemple, en vous fondant sur les critères de valeurs résiduelles élevées, vous pouvez vous attendre à ce qu'environ 5 % de vos observations soient signalées pour leur valeur résiduelle importante. Si l'analyse révèle de nombreuses observations aberrantes, le modèle ne décrit peut-être pas de façon adéquate la relation entre les prédicteurs et la variable de réponse. Pour plus d'informations, reportez-vous à la rubrique Observations aberrantes.

Les valeurs résiduelles supprimées et normalisées peuvent être plus utiles que les valeurs résiduelles brutes pour détecter les valeurs aberrantes. Elles corrigent les éventuelles différences de variance des valeurs résiduelles brutes dues à des valeurs de prédicteurs ou facteurs différentes.

Hi (effet de levier)

La valeur Hi, aussi appelée effet de levier, mesure la distance entre la valeur de x d'une observation et la moyenne des valeurs de x de toutes les observations d'un ensemble de données.

Interprétation

Les valeurs Hi sont comprises entre 0 et 1. Dans le tableau Ajustements et diagnostics pour les observations aberrantes, Minitab affecte un X aux observations qui présentent soit un effet de levier supérieur à 3p/n soit la valeur 0,99, en considérant en priorité la plus petite de ces valeurs. Dans la valeur 3p/n, p représente le nombre de coefficients du modèle et n le nombre d'observations. Les observations que Minitab signale par un "X" peuvent être influentes.

Les observations influentes ont un effet disproportionné sur le modèle et peuvent générer des résultats trompeurs. Par exemple, un coefficient pourra être statistiquement significatif ou non selon qu'un point influent est inclus ou exclus. Les observations influentes peuvent être des points à effet de levier et/ou des valeurs aberrantes.

En cas d'observation influente, déterminez si elle est due à une erreur d'entrée de données ou de mesure. Si l'observation n'est due ni à une erreur d'entrée de données, ni à une erreur de mesure, déterminez dans quelle mesure l'observation est influente. Tout d'abord, ajustez le modèle avec et sans observation. Ensuite, comparez les coefficients, les valeurs de p, le R2, et d'autres informations relatives au modèle. Si le modèle change de manière significative lorsque vous supprimez l'observation influente, examinez le modèle plus en détail pour déterminer si vous avez spécifié le modèle de façon incorrecte. Vous pouvez être amené à rassembler davantage de données pour résoudre le problème.

Distance de Cook (D)

La distance de Cook (D) mesure l'effet qu'a une observation sur un ensemble de coefficients dans un modèle linéaire. La distance de Cook prend en compte la valeur à effet de levier et la valeur résiduelle normalisée de chaque observation afin de déterminer l'effet de l'observation.

Interprétation

Les observations dont la valeur D est élevée peuvent être considérées comme influentes. L'un des critères couramment utilisés pour déterminer si une valeur D est élevée est qu'elle soit supérieure à la médiane de la loi F : F(0,5, p, n-p), où p représente le nombre de termes du modèle (constante comprise) et n le nombre d'observations. Une autre façon d'examiner les valeurs D consiste à les comparer à l'aide d'un graphique, tel qu'un diagramme des valeurs individuelles. Les observations possédant des valeurs D supérieures à la moyenne peuvent être influentes.

Les observations influentes ont un effet disproportionné sur le modèle et peuvent générer des résultats trompeurs. Par exemple, un coefficient pourra être statistiquement significatif ou non selon qu'un point influent est inclus ou exclus. Les observations influentes peuvent être des points à effet de levier et/ou des valeurs aberrantes.

En cas d'observation influente, déterminez si elle est due à une erreur d'entrée de données ou de mesure. Si l'observation n'est due ni à une erreur d'entrée de données, ni à une erreur de mesure, déterminez dans quelle mesure l'observation est influente. Tout d'abord, ajustez le modèle avec et sans observation. Ensuite, comparez les coefficients, les valeurs de p, le R2, et d'autres informations relatives au modèle. Si le modèle change de manière significative lorsque vous supprimez l'observation influente, examinez le modèle plus en détail pour déterminer si vous avez spécifié le modèle de façon incorrecte. Vous pouvez être amené à rassembler davantage de données pour résoudre le problème.

DFITS

La valeur DFITS mesure l'effet de chaque observation sur les valeurs ajustées dans un modèle linéaire. La valeur DFITS exprime approximativement le changement, en nombre d'écarts types, de la valeur ajustée lorsque chaque observation est supprimée de l'ensemble de données et que le modèle est réajusté.

Interprétation

Plus les observations ont une valeur DFITS élevée, plus il y a de chances qu'elles soient influentes. L'un des critères couramment utilisés pour déterminer si une valeur DFITS peut être considérée comme élevée, consiste à vérifier si elle est supérieure à la valeur :
TermeDescription
pnombre de termes dans le modèle
nnombre d'observations

En cas d'observation influente, déterminez si elle est due à une erreur d'entrée de données ou de mesure. Si l'observation n'est due ni à une erreur d'entrée de données, ni à une erreur de mesure, déterminez dans quelle mesure l'observation est influente. Tout d'abord, ajustez le modèle avec et sans observation. Ensuite, comparez les coefficients, les valeurs de p, le R2, et d'autres informations relatives au modèle. Si le modèle change de manière significative lorsque vous supprimez l'observation influente, examinez le modèle plus en détail pour déterminer si vous avez spécifié le modèle de façon incorrecte. Vous pouvez être amené à rassembler davantage de données pour résoudre le problème.