Exemple pour Analyse de concordance

Dans une entreprise d'impression textile, des évaluateurs évaluent la qualité d'impression de tissus en coton sur une échelle de 1 à 5. L'ingénieur qualité souhaite évaluer la cohérence et l'exactitude des notes des évaluateurs. Il demande à quatre évaluateurs d'examiner la qualité d'impression de 50 échantillons de tissu à deux reprises, dans un ordre aléatoire.

Etant donné que les données incluent une valeur standard connue pour chaque échantillon, l'ingénieur qualité peut évaluer la cohérence et l'exactitude des évaluations en les comparant à la fois à la valeur standard et aux notes attribuées par les autres évaluateurs.

  1. Ouvrez le fichier de données échantillons, QualitéImpressionTextile.MWX.
  2. Sélectionnez .Stat > Outils de la qualité > Analyse de concordance
  3. Dans la zone Les données sont disposées en, sélectionnez Colonne d'attributs et saisissez Response.
  4. Dans la zone Echantillons, saisissez Echantillon.
  5. Dans la zone Evaluateurs, saisissez Contrôleur.
  6. Dans la zone Standard/attribut connu, saisissez Standard.
  7. Sélectionnez Les catégories des données d'attribut sont ordonnées.
  8. Cliquez sur OK.

Interprétation des résultats

Tableau Intra-évaluateur
Chaque évaluateur effectuant au moins deux notations pour chaque échantillon, l'ingénieur peut évaluer la cohérence de chaque évaluateur.
Tous les évaluateurs présentent de bonnes correspondances, d'Amanda (100 %) à Eric (86 %).
La valeur de p des statistiques kappa de Fleiss est de 0,0000 pour tous les évaluateurs et toutes les réponses, avec α = 0,05. Par conséquent, l'ingénieur rejette l'hypothèse nulle selon laquelle la concordance est due uniquement au hasard.
Cet exemple comportant des notations ordinales, l'ingénieur examine le coefficient de concordance de Kendall. Le coefficient de concordance de Kendall de tous les évaluateurs est compris entre 0,98446 et 1,000, ce qui indique un niveau élevé de concordance.
Tableau Chaque évaluateur en fonction du standard
Comme il existe un standard connu pour chaque échantillon, l'ingénieur peut évaluer l'exactitude et la cohérence des notations de chaque évaluateur.
Chaque évaluateur a noté 50 échantillons de tissu (# Inspectées). Amanda a correctement jugé 47 échantillons au terme des essais (# Concordance), soit une correspondance de 94 %. Eric a correctement jugé 41 échantillons au terme des essais, soit une correspondance de 82 %.
La valeur de p du kappa de Fleiss est de 0,0000 pour tous les évaluateurs et toutes les réponses, avec α = 0,05. Par conséquent, l'ingénieur rejette l'hypothèse nulle selon laquelle la concordance est due uniquement au hasard.
Le coefficient de corrélation de Kendall pour tous les évaluateurs est compris entre 0,951863 et 0,975168, ce qui confirme le niveau élevé de concordance avec le standard.
Tableau Inter-évaluateurs
Le tableau Inter-évaluateurs indique que les notations des évaluateurs concordent pour 37 échantillons sur 50.
La valeur du kappa global de 0,881705 indique un niveau correct de concordance absolue entre les notations des évaluateurs. Le coefficient de concordance de Kendall de 0,976681 confirme cette forte association.
Les statistiques inter-évaluateurs ne comparent pas les notations des évaluateurs au standard. Bien que les notations des évaluateurs soient cohérentes, ces statistiques n'indiquent pas si les notations sont correctes.
Tableau Tous les évaluateurs en fonction du standard
Comme il existe un standard connu pour chaque échantillon, l'ingénieur peut évaluer l'exactitude des notations de tous les évaluateurs.
37 notations d'évaluateurs sur 50 correspondaient, pour toutes les évaluations, au standard connu (soit une correspondance à 74,0 %).
La valeur du kappa global de 0,912082 indique un niveau correct de concordance absolue des notations entre les évaluateurs et avec le standard. Le coefficient de concordance de Kendall de 0,965563 confirme cette forte association.
Les statistiques Tous les évaluateurs en fonction du standard comparent les notations des évaluateurs au standard. L'ingénieur peut conclure que les notations des évaluateurs sont cohérentes et correctes.
Remarque

La valeur de p de 0,0000 dans les résultats est arrondie. Toutefois, vous pouvez conclure en toute sécurité que la valeur de p est très faible et est inférieure à 0,00005.

Concordance d'évaluation

Evaluateur# Inspectées# ConcordancePourcentageIC à 95 %
Amanda5050100,00(94,18; 100,00)
Brigitte504896,00(86,29; 99,51)
Eric504386,00(73,26; 94,18)
Michel504590,00(78,19; 96,67)
# Concordance : l'évaluateur est conforme avec lui-même après les tests.

Statistiques kappa de Fleiss

EvaluateurRéponseKappaKappa ErTZP (contre >
0)
Amanda11,000000,1414217,07110,0000
  21,000000,1414217,07110,0000
  31,000000,1414217,07110,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global1,000000,07105214,07410,0000
Brigitte11,000000,1414217,07110,0000
  20,896050,1414216,33600,0000
  30,864500,1414216,11290,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global0,949650,07140113,30020,0000
Eric10,830600,1414215,87330,0000
  20,840000,1414215,93970,0000
  30,702380,1414214,96660,0000
  40,702380,1414214,96660,0000
  51,000000,1414217,07110,0000
  Global0,823540,07159111,50340,0000
Michel11,000000,1414217,07110,0000
  20,830600,1414215,87330,0000
  30,819170,1414215,79240,0000
  40,864500,1414216,11290,0000
  50,864500,1414216,11290,0000
  Global0,874720,07094512,32950,0000

Coefficient de concordance de Kendall

EvaluateurCoeffKhi deuxDLP
Amanda1,0000098,0000490,0000
Brigitte0,9944897,4587490,0000
Eric0,9844696,4769490,0001
Michel0,9870096,7256490,0001

Concordance d'évaluation

Evaluateur# Inspectées# ConcordancePourcentageIC à 95 %
Amanda504794,00(83,45; 98,75)
Brigitte504692,00(80,77; 97,78)
Eric504182,00(68,56; 91,42)
Michel504590,00(78,19; 96,67)
# Concordance : les évaluations de tous les évaluateurs, après essais, concordent avec le
     standard connu.

Statistiques kappa de Fleiss

EvaluateurRéponseKappaKappa ErTZP (contre >
0)
Amanda11,000000,10000010,00000,0000
  20,830600,1000008,30600,0000
  30,819170,1000008,19170,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924760,05025718,40060,0000
Brigitte11,000000,10000010,00000,0000
  20,838380,1000008,38380,0000
  30,807250,1000008,07250,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924620,05039618,34730,0000
Eric10,911590,1000009,11590,0000
  20,810350,1000008,10350,0000
  30,726190,1000007,26190,0000
  40,849190,1000008,49190,0000
  51,000000,10000010,00000,0000
  Global0,861630,05050017,06220,0000
Michel11,000000,10000010,00000,0000
  20,916940,1000009,16940,0000
  30,907360,1000009,07360,0000
  40,929130,1000009,29130,0000
  50,935020,1000009,35020,0000
  Global0,937320,05021118,66740,0000

Coefficient de corrélation de Kendall

EvaluateurCoeffCoeff ErTZP
Amanda0,9673860,069006614,01280,0000
Brigitte0,9678350,069006614,01930,0000
Eric0,9518630,069006613,78790,0000
Michel0,9751680,069006614,12560,0000

Concordance d'évaluation

# Inspectées# ConcordancePourcentageIC à 95 %
503774,00(59,66; 85,37)
# Concordance : les évaluations de tous les évaluateurs concordent entre elles.

Statistiques kappa de Fleiss

RéponseKappaKappa ErTZP (contre >
0)
10,9543920,026726135,71010,0000
20,8276940,026726130,96950,0000
30,7725410,026726128,90580,0000
40,8911270,026726133,34290,0000
50,9681480,026726136,22480,0000
Global0,8817050,013436265,62180,0000

Coefficient de concordance de Kendall

CoeffKhi deuxDLP
0,976681382,859490,0000

Concordance d'évaluation

# Inspectées# ConcordancePourcentageIC à 95 %
503774,00(59,66; 85,37)
# Concordance : les évaluations de tous les évaluateurs concordent avec le standard connu.

Statistiques kappa de Fleiss

RéponseKappaKappa ErTZP (contre >
0)
10,9778970,050000019,55790,0000
20,8490680,050000016,98140,0000
30,8149920,050000016,29980,0000
40,9445800,050000018,89160,0000
50,9837560,050000019,67510,0000
Global0,9120820,025170536,23620,0000

Coefficient de corrélation de Kendall

CoeffCoeff ErTZP
0,9655630,034503327,98170,0000