Utilisation de comparaisons multiples pour évaluer des différences entre des moyennes de groupes

Que sont les comparaisons multiples ?

La fonction Comparaisons multiples des moyennes permet de déterminer celles qui sont différentes et d'estimer l'importance de leurs différences. Vous pouvez évaluer la signification statistique de différences entre des moyennes à l'aide d'un ensemble d'intervalles de confiance, d'un ensemble de tests d'hypothèses ou des deux. Les intervalles de confiance vous permettent d'évaluer la signification pratique de différences parmi les moyennes, en plus de leur signification statistique. Comme d'habitude, l'hypothèse nulle, qui spécifie qu'il n'existe aucune différence entre les moyennes, est rejetée si et seulement si zéro n'est pas inclus à l'intérieur de l'intervalle de confiance.

Quelle méthode de comparaison multiple utiliser avec la fonction ANOVA à un facteur contrôlé ?

Le choix de la méthode de comparaisons multiples dépend de l'inférence désirée. Il n'est pas efficace d'utiliser l'approche de Tukey, consistant à effectuer toutes les comparaisons deux à deux, lorsque les méthodes de Dunnett ou MCB sont disponibles, parce que l'intervalle de confiance de Tukey sera plus grand et les tests d'hypothèse moins puissants pour un taux d'erreur famille particulier. Pour les mêmes raisons, MCB est supérieur à Dunnett si vous voulez éliminer les niveaux de facteurs qui ne sont pas les meilleurs et identifier ceux qui sont les meilleurs ou proches des meilleurs. Le choix des méthodes de Tukey ou de Fisher dépend du taux d'erreur, famille ou individuel, que vous voulez spécifier.

Les caractéristiques et avantages de chaque méthode sont récapitulés dans le tableau suivant : 

Méthode Données normales Résistance Comparaison avec témoin Comparaison deux à deux
Tukey Oui Test le plus puissant pour effectuer toutes les comparaisons deux à deux. Non Oui
Dunnett Oui Test le plus puissant pour les comparaisons avec témoin. Oui Non
Méthode MCB de Hsu Oui Test le plus puissant lors de la comparaison du groupe avec la moyenne la plus élevée ou la plus faible aux autres groupes. Non Oui
Games-Howell Oui Utilisé lorsque l'égalité des variances n'est pas supposée. Non Oui
Remarque

L'analyse ANOVA à un facteur contrôlé permet également d'utiliser la méthode de la plus petite différence significative (LSD) de Fisher pour les intervalles de confiance individuels. La méthode de Fisher n'est pas une méthode de comparaisons multiples ; elle compare les intervalles de confiance individuels pour les différences deux à deux entre les moyennes en utilisant un taux d'erreur individuel. Cette méthode augmente le taux d'erreur famille affiché dans les résultats.

Quelle méthode de comparaison multiple utiliser avec la fonction Ajuster le modèle linéaire général ou Ajuster le modèle à effets mixtes ?

Après avoir utilisé la fonction Ajuster le modèle linéaire général ou Ajuster le modèle à effets mixtes, utilisez l'analyse correspondante pour obtenir des comparaisons multiples de moyennes :
  • Stat > ANOVA > Modèle linéaire général > Comparaisons
  • Stat > ANOVA > Modèle à effets mixtes > Comparaisons
Vous devez effectuer les choix suivants lorsque vous utilisez des comparaisons multiples :
  • Comparaisons deux à deux ou comparaisons avec un contrôle
  • La méthode de comparaison

Comparaisons deux à deux ou comparaison avec un contrôle

Choisissez Deux à deux dans la sous-boîte de dialogue Options lorsque vous ne disposez pas d'un niveau de contrôle et souhaitez comparer toutes les combinaisons de moyennes.

Choisissez Avec un contrôle pour comparer les moyennes de niveaux à la moyenne d'un groupe de contrôle. Lorsque cette méthode est appropriée, il n'est pas nécessaire d'utiliser des comparaisons deux à deux, car les intervalles de confiance deux à deux sont plus importants et les tests des hypothèses sont moins puissants pour un niveau de confiance indiqué.

Méthode de comparaison multiple

Choisissez la procédure de comparaison en fonction des moyennes de groupes à comparer, du type de niveau de confiance à indiquer et du degré de prudence souhaité pour les résultats. "Prudente" dans ce contexte signifie que le niveau de confiance réel est susceptible d'être supérieur au niveau de confiance affiché.

Sauf pour la méthode de Fisher, les méthodes de comparaisons multiples intègrent une protection contre les réponses positives fausses. Du fait de la protection contre les réponses positives fausses avec les comparaisons multiples, les intervalles sont plus larges que s'il n'y avait pas de protection.

Voici un récapitulatif de certaines caractéristiques des méthodes de comparaisons multiples :

Méthode de comparaison Propriétés Niveau de confiance indiqué
Tukey Toutes les comparaisons deux à deux uniquement, pas les comparaisons prudentes Simultanée
Fisher Aucune protection contre les réponses positives fausses dues aux comparaisons multiples Diagramme
Dunnett Comparaison à un contrôle uniquement, prudence non démontrée Simultanée
Bonferroni La plus prudente Simultanée
Sidak Prudente, mais légèrement moins que Bonferroni Simultanée

Que se passe-t-il si la valeur de p du tableau d'ANOVA contredit les résultats des comparaisons multiples ?

La valeur de p indiquée dans le tableau d'ANOVA et les résultats de comparaisons multiples reposent sur différentes méthodologies et peuvent parfois générer des résultats contradictoires. Par exemple, il peut arriver que la valeur de p de l'analyse ANOVA n'indique aucune différence entre les moyennes, alors que les résultats des comparaisons multiples indiquent que certaines moyennes sont différentes. Dans ce cas, vous pouvez généralement vous fier aux résultats des comparaisons multiples.

Il n'est pas nécessaire de disposer d'une valeur de p significative dans le tableau d'ANOVA pour réduire la probabilité de détecter une différence inexistante. Cette protection est déjà intégrée dans les tests de Tukey, Dunnett et MCB (ainsi que dans le test de Fisher lorsque les moyennes sont égales).