Interprétation des résultats principaux pour Analyse de concordance

Suivez les étapes ci-dessous pour interpréter une analyse de concordance. Parmi les résultats principaux, citons les statistiques kappa, les statistiques de Kendall et les graphiques de concordance.

Etape 1 : Evaluer visuellement la concordance des évaluateurs

Pour déterminer la cohérence des notations de chaque évaluateur, évaluez le graphique Intra-évaluateur. Comparez le pourcentage de correspondances (cercle bleu) à l'intervalle de confiance pour le pourcentage de correspondance (ligne rouge) pour chaque évaluateur.

Pour déterminer la justesse des notations de chaque évaluateur, évaluez le graphique Evaluateur en fonction du standard. Comparez le pourcentage de correspondances (cercle bleu) à l'intervalle de confiance pour le pourcentage de correspondance (ligne rouge) pour chaque évaluateur.

Remarque

Minitab affiche le graphique Intra-évaluateur uniquement en présence de plusieurs essais.

Ce graphique intra-évaluateur indique qu'Amanda possède les notations les plus cohérentes et qu'Eric présente les notations les moins cohérentes. Ce graphique de l'évaluateur en fonction du standard indique qu'Amanda possède les notations les plus correctes et qu'Eric présente les notations les moins correctes.

Etape 2 : Evaluer la cohérence des réponses de chaque évaluateur

Pour déterminer la cohérence entre les notations de chaque évaluateur, évaluez les statistiques kappa dans le tableau Intra-évaluateur. Lorsque les évaluations sont ordinales, vous devez également évaluer les coefficients de concordance de Kendall. Minitab affiche le tableau Intra-évaluateur lorsque chaque évaluateur note plusieurs fois un élément.

Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.

Les valeurs du kappa sont comprises entre –1 et +1. Plus la valeur du kappa est élevée, plus forte est la concordance, comme ci-dessous :
  • Lorsque le kappa = 1, une concordance parfaite existe.
  • Si le kappa a pour valeur 0, la concordance est la même que celle qui pourrait être attendue par seul hasard.
  • Lorsque le kappa < 0, la concordance est plus faible que celle qui pourrait être attendue par hasard ; cela se produit rarement.

Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.

Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.

Remarque

Notez que le tableau Intra-évaluateur indique si les notations des évaluateurs sont cohérentes, mais pas si les notations concordent avec les valeurs de référence. Des notations cohérentes ne sont pas nécessairement des notations correctes.

Concordance d'évaluation

Evaluateur# Inspectées# ConcordancePourcentageIC à 95 %
Amanda5050100,00(94,18; 100,00)
Brigitte504896,00(86,29; 99,51)
Eric504386,00(73,26; 94,18)
Michel504590,00(78,19; 96,67)
# Concordance : l'évaluateur est conforme avec lui-même après les tests.

Statistiques kappa de Fleiss

EvaluateurRéponseKappaKappa ErTZP (contre >
0)
Amanda11,000000,1414217,07110,0000
  21,000000,1414217,07110,0000
  31,000000,1414217,07110,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global1,000000,07105214,07410,0000
Brigitte11,000000,1414217,07110,0000
  20,896050,1414216,33600,0000
  30,864500,1414216,11290,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global0,949650,07140113,30020,0000
Eric10,830600,1414215,87330,0000
  20,840000,1414215,93970,0000
  30,702380,1414214,96660,0000
  40,702380,1414214,96660,0000
  51,000000,1414217,07110,0000
  Global0,823540,07159111,50340,0000
Michel11,000000,1414217,07110,0000
  20,830600,1414215,87330,0000
  30,819170,1414215,79240,0000
  40,864500,1414216,11290,0000
  50,864500,1414216,11290,0000
  Global0,874720,07094512,32950,0000

Coefficient de concordance de Kendall

EvaluateurCoeffKhi deuxDLP
Amanda1,0000098,0000490,0000
Brigitte0,9944897,4587490,0000
Eric0,9844696,4769490,0001
Michel0,9870096,7256490,0001
Résultats principaux : Kappa, coefficient de concordance de Kendall

De nombreuses valeurs de kappa sont égales à 1, ce qui indique une concordance parfaite entre les notations d'un évaluateur, d'un essai à l'autre. Certaines valeurs de kappa d'Eric sont proches de 0,70. Vous souhaiterez peut-être étudier l'origine de l'incohérence des notations de ces échantillons par Eric. Les données étant ordinales, Minitab propose le coefficient de concordance de Kendall. Ces valeurs sont toutes supérieures à 0,98, ce qui indique une très forte association avec les notations de l'évaluateur.

Etape 3 : Evaluer la justesse des réponses de chaque évaluateur

Pour déterminer la justesse des notations de chaque évaluateur, évaluez les statistiques kappa dans le tableau Chaque évaluateur en fonction du standard. Lorsque les notations sont ordinales, vous devez également évaluer les coefficients de corrélation de Kendall. Minitab affiche le tableau Chaque évaluateur en fonction du standard lorsque vous indiquez une valeur de référence pour chaque échantillon.

Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.

Les valeurs du kappa sont comprises entre –1 et +1. Plus la valeur du kappa est élevée, plus forte est la concordance, comme ci-dessous :
  • Lorsque le kappa = 1, une concordance parfaite existe.
  • Si le kappa a pour valeur 0, la concordance est la même que celle qui pourrait être attendue par seul hasard.
  • Lorsque le kappa < 0, la concordance est plus faible que celle qui pourrait être attendue par hasard ; cela se produit rarement.

Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.

Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.

Concordance d'évaluation

Evaluateur# Inspectées# ConcordancePourcentageIC à 95 %
Amanda504794,00(83,45; 98,75)
Brigitte504692,00(80,77; 97,78)
Eric504182,00(68,56; 91,42)
Michel504590,00(78,19; 96,67)
# Concordance : les évaluations de tous les évaluateurs, après essais, concordent avec le
     standard connu.

Statistiques kappa de Fleiss

EvaluateurRéponseKappaKappa ErTZP (contre >
0)
Amanda11,000000,10000010,00000,0000
  20,830600,1000008,30600,0000
  30,819170,1000008,19170,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924760,05025718,40060,0000
Brigitte11,000000,10000010,00000,0000
  20,838380,1000008,38380,0000
  30,807250,1000008,07250,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924620,05039618,34730,0000
Eric10,911590,1000009,11590,0000
  20,810350,1000008,10350,0000
  30,726190,1000007,26190,0000
  40,849190,1000008,49190,0000
  51,000000,10000010,00000,0000
  Global0,861630,05050017,06220,0000
Michel11,000000,10000010,00000,0000
  20,916940,1000009,16940,0000
  30,907360,1000009,07360,0000
  40,929130,1000009,29130,0000
  50,935020,1000009,35020,0000
  Global0,937320,05021118,66740,0000

Coefficient de corrélation de Kendall

EvaluateurCoeffCoeff ErTZP
Amanda0,9673860,069006614,01280,0000
Brigitte0,9678350,069006614,01930,0000
Eric0,9518630,069006613,78790,0000
Michel0,9751680,069006614,12560,0000
Résultats principaux : Kappa, coefficient de corrélation de Kendall

La plupart des valeurs de kappa sont supérieures à 0,80, ce qui indique une concordance correcte entre chaque évaluateur et le standard. Peu de valeurs de kappa sont proches de 0,70, ce qui indique que vous pouvez être amené à étudier davantage certains échantillons ou certains évaluateurs. Les données étant ordinales, Minitab fournit les coefficients de corrélation de Kendall. Ces valeurs sont comprises entre 0,951863 et 0,975168, ce qui indique une forte association entre les notations et les valeurs standard.

Etape 4 : Evaluer la cohérence entre les réponses des évaluateurs

Pour déterminer la cohérence entre les notations des évaluateurs, évaluez les statistiques kappa dans le tableau Inter-évaluateurs. Lorsque les notations sont ordinales, vous devez également évaluer le coefficient de concordance de Kendall.

Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.

Les valeurs du kappa sont comprises entre –1 et +1. Plus la valeur du kappa est élevée, plus forte est la concordance, comme ci-dessous :
  • Lorsque le kappa = 1, une concordance parfaite existe.
  • Si le kappa a pour valeur 0, la concordance est la même que celle qui pourrait être attendue par seul hasard.
  • Lorsque le kappa < 0, la concordance est plus faible que celle qui pourrait être attendue par hasard ; cela se produit rarement.

Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.

Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.

Remarque

Notez que le tableau Inter-évaluateurs indique si les notations des évaluateurs sont cohérentes, mais pas si les notations concordent avec les valeurs de référence. Des notations cohérentes ne sont pas nécessairement des notations correctes.

Concordance d'évaluation

# Inspectées# ConcordancePourcentageIC à 95 %
503774,00(59,66; 85,37)
# Concordance : les évaluations de tous les évaluateurs concordent entre elles.

Statistiques kappa de Fleiss

RéponseKappaKappa ErTZP (contre >
0)
10,9543920,026726135,71010,0000
20,8276940,026726130,96950,0000
30,7725410,026726128,90580,0000
40,8911270,026726133,34290,0000
50,9681480,026726136,22480,0000
Global0,8817050,013436265,62180,0000

Coefficient de concordance de Kendall

CoeffKhi deuxDLP
0,976681382,859490,0000
Résultats principaux : Kappa, coefficient de concordance de Kendall

Toutes les valeurs de kappa sont supérieures à 0,77, ce qui indique une concordance à peine acceptable entre les évaluateurs. Les évaluateurs présentent une concordance maximale pour les échantillons 1 et 5, et une concordance minimale pour l'échantillon 3. Les données étant ordinales, Minitab propose le coefficient de concordance de Kendall (0,976681), qui indique une très forte association entre les notations des évaluateurs.

Etape 5 : Evaluer la justesse des réponses de tous les évaluateurs

Pour déterminer la justesse des notations de tous les évaluateurs, évaluez les statistiques kappa dans le tableau Tous les évaluateurs en fonction du standard. Lorsque les notations sont ordinales, vous devez également évaluer les coefficients de concordance de Kendall.

Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.

Les valeurs du kappa sont comprises entre –1 et +1. Plus la valeur du kappa est élevée, plus forte est la concordance, comme ci-dessous :
  • Lorsque le kappa = 1, une concordance parfaite existe.
  • Si le kappa a pour valeur 0, la concordance est la même que celle qui pourrait être attendue par seul hasard.
  • Lorsque le kappa < 0, la concordance est plus faible que celle qui pourrait être attendue par hasard ; cela se produit rarement.

Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.

Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.

Concordance d'évaluation

# Inspectées# ConcordancePourcentageIC à 95 %
503774,00(59,66; 85,37)
# Concordance : les évaluations de tous les évaluateurs concordent avec le standard connu.

Statistiques kappa de Fleiss

RéponseKappaKappa ErTZP (contre >
0)
10,9778970,050000019,55790,0000
20,8490680,050000016,98140,0000
30,8149920,050000016,29980,0000
40,9445800,050000018,89160,0000
50,9837560,050000019,67510,0000
Global0,9120820,025170536,23620,0000

Coefficient de corrélation de Kendall

CoeffCoeff ErTZP
0,9655630,034503327,98170,0000
Résultats principaux : Kappa, coefficient de concordance de Kendall

Ces résultats montrent qu'il existe une correspondance exacte entre les notations de tous les évaluateurs et les notations standard pour 37 des 50 échantillons. La valeur de kappa globale est de 0,912082, ce qui indique une forte concordance avec les valeurs standard. Les données étant ordinales, Minitab propose le coefficient de concordance de Kendall (0,965563), qui indique une forte association entre les notations et les valeurs standard.