Statistiques kappa pour Analyse de concordance

Obtenez des définitions et bénéficiez de conseils en matière d'interprétation pour les statistiques kappa.

Réponse

Niveau de catégories dans les données. Par exemple, si les évaluateurs utilisent une échelle de 1 à 5, les réponses sont 1–5.

Kappa

Le kappa est le rapport entre la proportion de concordances des évaluateurs (corrigée dans le cas d'une concordance due au hasard) et la proportion maximale possible de concordances des évaluateurs (corrigée dans le cas d'une concordance due au hasard).

Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.

Minitab peut calculer à la fois le kappa de Fleiss et le kappa de Cohen. Le kappa de Cohen est une statistique populaire de mesure de la concordance d'évaluation entre 2 évaluateurs. Le kappa de Fleiss est une généralisation du kappa de Cohen pour plus de 2 évaluateurs. Dans Analyse de concordance, Minitab calcule le kappa de Fleiss par défaut.

Minitab peut calculer le kappa de Cohen lorsque vos données répondent aux exigences suivantes :
  • Pour calculer le kappa de Cohen pour Intra-évaluateur, vous devez disposer de 2 essais pour chaque évaluateur.
  • Pour calculer le kappa de Cohen pour Inter-évaluateurs, vous devez disposer de 2 évaluateurs avec 1 essai.
  • Pour calculer le kappa de Cohen pour Chaque évaluateur en fonction du standard et Tous les évaluateurs en fonction du standard, vous devez fournir un standard pour chaque échantillon.

Interprétation

Les valeurs du kappa sont comprises entre –1 et +1. Plus la valeur du kappa est élevée, plus forte est la concordance, comme ci-dessous :
  • Lorsque le kappa = 1, une concordance parfaite existe.
  • Si le kappa a pour valeur 0, la concordance est la même que celle qui pourrait être attendue par seul hasard.
  • Lorsque le kappa < 0, la concordance est plus faible que celle qui pourrait être attendue par hasard ; cela se produit rarement.

Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.

Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.

Pour plus d'informations, reportez-vous à la rubrique Statistiques Kappa et coefficients de Kendall.

Kappa ErT

L'erreur type pour une statistique kappa estimée mesure la précision de l'estimation. Plus l'erreur type est petite, plus l'estimation est précise.

Z

Z est la valeur de Z, qui représente la statistique de test normal approximative. Minitab utilise la valeur de Z pour déterminer la valeur de p.

P (contre valeur > 0)

La valeur de p est une probabilité qui mesure les preuves par rapport à l'hypothèse nulle. Les valeurs de p inférieures fournissent des preuves plus solides par rapport à l'hypothèse nulle.

Utilisez la valeur de p pour le kappa pour déterminer s'il convient de rejeter ou non l'hypothèse nulle suivante :
  • H0 pour Intra-évaluateur : la concordance intra-évaluateur est due au hasard.
  • H0 pour Chaque évaluateur en fonction du standard : la concordance entre les notes des évaluateurs et le standard est due au hasard.
  • H0 pour Inter-évaluateurs : la concordance inter-évaluateurs est due au hasard.
  • H0 pour Tous les évaluateurs en fonction du standard : la concordance entre les notes de tous les évaluateurs et le standard est due au hasard.

Minitab utilise la valeur de Z pour déterminer la valeur de p.

Interprétation

Pour déterminer si la concordance est due au hasard, comparez la valeur de p au seuil de signification. En général, un seuil de signification (noté alpha ou α) de 0,05 fonctionne bien. Un seuil de signification de 0,05 indique 5 % de risques de conclure à tort à la concordance des évaluateurs.
Valeur de p ≤ α : la concordance entre les évaluateurs n'est pas due au hasard (H0 rejetée)
Si la valeur de p est inférieure ou égale au seuil de signification, vous rejetez l'hypothèse nulle et concluez que la concordance entre les évaluateurs est significativement différente de la valeur qui serait obtenue par hasard.
Valeur de p > α : la concordance entre les évaluateurs est due au hasard (H0 non rejetée)
Si la valeur de p est supérieure au seuil de signification, vous ne pouvez pas rejeter l'hypothèse nulle car vous ne possédez pas suffisamment de preuves pour conclure que la concordance entre les évaluateurs est différente de la valeur qui serait obtenue par hasard.