La fonction Comparaisons multiples des moyennes permet de déterminer celles qui sont différentes et d'estimer l'importance de leurs différences. Vous pouvez évaluer la signification statistique de différences entre des moyennes à l'aide d'un ensemble d'intervalles de confiance, d'un ensemble de tests d'hypothèses ou des deux. Les intervalles de confiance vous permettent d'évaluer la signification pratique de différences parmi les moyennes, en plus de leur signification statistique. Comme d'habitude, l'hypothèse nulle, qui spécifie qu'il n'existe aucune différence entre les moyennes, est rejetée si et seulement si zéro n'est pas inclus à l'intérieur de l'intervalle de confiance.
Le choix de la méthode de comparaisons multiples dépend de l'inférence désirée. Il n'est pas efficace d'utiliser l'approche de Tukey, consistant à effectuer toutes les comparaisons deux à deux, lorsque les méthodes de Dunnett ou MCB sont disponibles, parce que l'intervalle de confiance de Tukey sera plus grand et les tests d'hypothèse moins puissants pour un taux d'erreur famille particulier. Pour les mêmes raisons, MCB est supérieur à Dunnett si vous voulez éliminer les niveaux de facteurs qui ne sont pas les meilleurs et identifier ceux qui sont les meilleurs ou proches des meilleurs. Le choix des méthodes de Tukey ou de Fisher dépend du taux d'erreur, famille ou individuel, que vous voulez spécifier.
Méthode | Données normales | Résistance | Comparaison avec témoin | Comparaison deux à deux |
---|---|---|---|---|
Tukey | Oui | Test le plus puissant pour effectuer toutes les comparaisons deux à deux. | Non | Oui |
Dunnett | Oui | Test le plus puissant pour les comparaisons avec témoin. | Oui | Non |
Méthode MCB de Hsu | Oui | Test le plus puissant lors de la comparaison du groupe avec la moyenne la plus élevée ou la plus faible aux autres groupes. | Non | Oui |
Games-Howell | Oui | Utilisé lorsque l'égalité des variances n'est pas supposée. | Non | Oui |
L'analyse ANOVA à un facteur contrôlé permet également d'utiliser la méthode de la plus petite différence significative (LSD) de Fisher pour les intervalles de confiance individuels. La méthode de Fisher n'est pas une méthode de comparaisons multiples ; elle compare les intervalles de confiance individuels pour les différences deux à deux entre les moyennes en utilisant un taux d'erreur individuel. Cette méthode augmente le taux d'erreur famille affiché dans les résultats.
Choisissez Deux à deux dans la sous-boîte de dialogue Options lorsque vous ne disposez pas d'un niveau de contrôle et souhaitez comparer toutes les combinaisons de moyennes.
Choisissez Avec un contrôle pour comparer les moyennes de niveaux à la moyenne d'un groupe de contrôle. Lorsque cette méthode est appropriée, il n'est pas nécessaire d'utiliser des comparaisons deux à deux, car les intervalles de confiance deux à deux sont plus importants et les tests des hypothèses sont moins puissants pour un niveau de confiance indiqué.
Choisissez la procédure de comparaison en fonction des moyennes de groupes à comparer, du type de niveau de confiance à indiquer et du degré de prudence souhaité pour les résultats. "Prudente" dans ce contexte signifie que le niveau de confiance réel est susceptible d'être supérieur au niveau de confiance affiché.
Sauf pour la méthode de Fisher, les méthodes de comparaisons multiples intègrent une protection contre les réponses positives fausses. Du fait de la protection contre les réponses positives fausses avec les comparaisons multiples, les intervalles sont plus larges que s'il n'y avait pas de protection.
Voici un récapitulatif de certaines caractéristiques des méthodes de comparaisons multiples :
Méthode de comparaison | Propriétés | Niveau de confiance indiqué |
---|---|---|
Tukey | Toutes les comparaisons deux à deux uniquement, pas les comparaisons prudentes | Simultanée |
Fisher | Aucune protection contre les réponses positives fausses dues aux comparaisons multiples | Diagramme |
Dunnett | Comparaison à un contrôle uniquement, prudence non démontrée | Simultanée |
Bonferroni | La plus prudente | Simultanée |
Sidak | Prudente, mais légèrement moins que Bonferroni | Simultanée |
La valeur de p indiquée dans le tableau d'ANOVA et les résultats de comparaisons multiples reposent sur différentes méthodologies et peuvent parfois générer des résultats contradictoires. Par exemple, il peut arriver que la valeur de p de l'analyse ANOVA n'indique aucune différence entre les moyennes, alors que les résultats des comparaisons multiples indiquent que certaines moyennes sont différentes. Dans ce cas, vous pouvez généralement vous fier aux résultats des comparaisons multiples.
Il n'est pas nécessaire de disposer d'une valeur de p significative dans le tableau d'ANOVA pour réduire la probabilité de détecter une différence inexistante. Cette protection est déjà intégrée dans les tests de Tukey, Dunnett et MCB (ainsi que dans le test de Fisher lorsque les moyennes sont égales).