Interpretieren der wichtigsten Ergebnisse für Prüferübereinstimmung bei attributiven Daten

Führen Sie die folgenden Schritte aus, um eine Analyse der Prüferübereinstimmung bei attributiven Daten zu interpretieren. Zu den wichtigsten Ausgaben zählen Kappa-Statistiken, Kendall-Statistiken und die Grafiken der Prüferübereinstimmung.

Schritt 1: Visuelles Untersuchen der Prüferübereinstimmung

Um zu ermitteln, wie beständig die Einstufungen der einzelnen Prüfer ausfallen, werten Sie die Grafik „Innerhalb der Prüfer“ aus. Vergleichen Sie die prozentuale Übereinstimmung (blauer Kreis) mit dem Konfidenzintervall für die prozentuale Übereinstimmung (rote Linie) für jeden Prüfer.

Um die Richtigkeit der Einstufungen jedes Prüfers zu ermitteln, werten Sie die Grafik „Prüfer im Vergleich zum Standard“ aus. Vergleichen Sie die prozentuale Übereinstimmung (blauer Kreis) mit dem Konfidenzintervall für die prozentuale Übereinstimmung (rote Linie) für jeden Prüfer.

Hinweis

Minitab zeigt die Grafik „Innerhalb der Prüfer“ nur an, wenn mehrere Versuche vorliegen.

Diese Grafik „Innerhalb der Prüfer“ zeigt, dass für Ahrens die beständigsten Einstufungen und für Ernst die am wenigsten beständigen Einstufungen vorliegen. Die Grafik „Prüfer im Vergleich zum Standard“ belegt, dass Ahrens die meisten richtigen Einstufungen und Ernst die wenigsten richtigen Einstufungen vorgenommen hat.

Schritt 2: Beständigkeit der Antworten für jeden Prüfer auswerten

Um zu ermitteln, wie beständig die Einstufungen der einzelnen Prüfer ausfallen, werten Sie die Kappa-Statistiken in der Tabelle „Innerhalb der Prüfer“ aus. Bei ordinalen Einstufungen sollten Sie außerdem die Kendall-Koeffizienten der Konkordanz betrachten. Minitab zeigt die Tabelle „Innerhalb der Prüfer“ an, wenn jeder Prüfer eine Prüfeinheit mehrmals einstuft.

Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.

Kappa kann Werte im Bereich von 1 bis +1 annehmen. Je höher der Kappa-Wert ist, desto höher ist die Übereinstimmung, d. h.:
  • Bei Kappa = 1 liegt eine vollkommene Übereinstimmung vor.
  • Bei Kappa = 0 entspricht die Übereinstimmung der erwarteten zufälligen Übereinstimmung.
  • Bei Kappa < 0 ist die Übereinstimmung geringer als die erwartete zufällige Übereinstimmung. Dies tritt jedoch sehr selten auf.

Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.

Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.

Hinweis

Bedenken Sie, dass die Tabelle „Innerhalb der Prüfer“ angibt, ob die Einstufungen der Prüfer einheitlich sind, jedoch nicht, ob die Einstufungen mit den Referenzwerten übereinstimmen. Einheitliche Einstufungen sind nicht unbedingt richtige Einstufungen.

Übereinstimmung der Bewertungen

Prüfer# Geprüft# ÜbereinstimmungenProzent95%-KI
Ahrens5050100,00(94,18; 100,00)
Becker504896,00(86,29; 99,51)
Ernst504386,00(73,26; 94,18)
Müller504590,00(78,19; 96,67)
# Übereinstimmungen: Der Prüfer stimmt versuchsübergreifend mit sich selbst überein.

Fleiss-Kappa-Statistik

PrüferAntwortKappaSE KappazP(vs > 0)
Ahrens11,000000,1414217,07110,0000
  21,000000,1414217,07110,0000
  31,000000,1414217,07110,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Gesamt1,000000,07105214,07410,0000
Becker11,000000,1414217,07110,0000
  20,896050,1414216,33600,0000
  30,864500,1414216,11290,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Gesamt0,949650,07140113,30020,0000
Ernst10,830600,1414215,87330,0000
  20,840000,1414215,93970,0000
  30,702380,1414214,96660,0000
  40,702380,1414214,96660,0000
  51,000000,1414217,07110,0000
  Gesamt0,823540,07159111,50340,0000
Müller11,000000,1414217,07110,0000
  20,830600,1414215,87330,0000
  30,819170,1414215,79240,0000
  40,864500,1414216,11290,0000
  50,864500,1414216,11290,0000
  Gesamt0,874720,07094512,32950,0000

Kendall-Koeffizient der Konkordanz

PrüferKoefChi-QdDFp
Ahrens1,0000098,0000490,0000
Becker0,9944897,4587490,0000
Ernst0,9844696,4769490,0001
Müller0,9870096,7256490,0001
Wichtigste Ergebnisse: Kappa, Kendall-Koeffizient der Konkordanz

Viele der Kappa-Werte sind gleich 1; dies weist auf eine vollständige Übereinstimmung der Einstufungen eines Prüfers über mehrere Versuche hin. Einige der Kappa-Werte von Ernst liegen nahe 0,70. Möglicherweise sollten Sie untersuchen, weshalb die Einstufungen dieser Stichproben durch Ernst unbeständig waren. Da die Daten ordinal sind, gibt Minitab die Werte des Kendall-Koeffizienten der Konkordanz aus. Diese Werte sind durchgängig größer als 0,98; dies verweist auf eine sehr stark ausgeprägte Assoziation zwischen den Einstufungen des jeweiligen Prüfers.

Schritt 3: Richtigkeit der Einstufungen jedes Prüfers auswerten

Um die Richtigkeit der Einstufungen jedes Prüfers auszuwerten, betrachten Sie die Kappa-Statistiken in der Tabelle „Jeder Prüfer im Vergleich zum Standard“. Bei ordinalen Einstufungen sollten Sie darüber hinaus die Kendall-Koeffizienten der Konkordanz heranziehen. Minitab gibt die Tabelle „Jeder Prüfer im Vergleich zum Standard“ aus, wenn Sie für jede Stichprobe einen Referenzwert angeben.

Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.

Kappa kann Werte im Bereich von 1 bis +1 annehmen. Je höher der Kappa-Wert ist, desto höher ist die Übereinstimmung, d. h.:
  • Bei Kappa = 1 liegt eine vollkommene Übereinstimmung vor.
  • Bei Kappa = 0 entspricht die Übereinstimmung der erwarteten zufälligen Übereinstimmung.
  • Bei Kappa < 0 ist die Übereinstimmung geringer als die erwartete zufällige Übereinstimmung. Dies tritt jedoch sehr selten auf.

Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.

Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.

Übereinstimmung der Bewertungen

Prüfer# Geprüft# ÜbereinstimmungenProzent95%-KI
Ahrens504794,00(83,45; 98,75)
Becker504692,00(80,77; 97,78)
Ernst504182,00(68,56; 91,42)
Müller504590,00(78,19; 96,67)
# Übereinstimmungen: Die Bewertungen des Prüfers stimmen versuchsübergreifend mit dem
     bekannten Standard überein.

Fleiss-Kappa-Statistik

PrüferAntwortKappaSE KappazP(vs > 0)
Ahrens11,000000,10000010,00000,0000
  20,830600,1000008,30600,0000
  30,819170,1000008,19170,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Gesamt0,924760,05025718,40060,0000
Becker11,000000,10000010,00000,0000
  20,838380,1000008,38380,0000
  30,807250,1000008,07250,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Gesamt0,924620,05039618,34730,0000
Ernst10,911590,1000009,11590,0000
  20,810350,1000008,10350,0000
  30,726190,1000007,26190,0000
  40,849190,1000008,49190,0000
  51,000000,10000010,00000,0000
  Gesamt0,861630,05050017,06220,0000
Müller11,000000,10000010,00000,0000
  20,916940,1000009,16940,0000
  30,907360,1000009,07360,0000
  40,929130,1000009,29130,0000
  50,935020,1000009,35020,0000
  Gesamt0,937320,05021118,66740,0000

Kendall-Korrelationskoeffizient

PrüferKoefSE Koefzp
Ahrens0,9673860,069006614,01280,0000
Becker0,9678350,069006614,01930,0000
Ernst0,9518630,069006613,78790,0000
Müller0,9751680,069006614,12560,0000
Wichtigste Ergebnisse: Kappa, Kendall-Koeffizient der Korrelation

Die meisten Kappa-Werte sind größer als 0,80; dies weist auf eine gute Übereinstimmung der einzelnen Prüfer mit dem Standard hin. Einige Kappa-Werte liegen nahe 0,70; dies verweist darauf, dass Sie bestimmte Stichproben oder Prüfer möglicherweise eingehender untersuchen sollten. Da die Daten ordinal sind, gibt Minitab die Kendall-Koeffizienten der Korrelation aus. Diese Werte liegen im Bereich von 0,951863 bis 0,975168 und weisen auf eine starke Assoziation zwischen den Einstufungen und den Standardwerten hin.

Schritt 4: Einheitlichkeit der Einstufungen zwischen den einzelnen Prüfern auswerten

Um zu ermitteln, wie einheitlich die Einstufungen zwischen den Prüfern ausfallen, werten Sie die Kappa-Statistiken in der Tabelle „Zwischen Prüfern“ aus. Bei ordinalen Einstufungen sollten Sie außerdem den Kendall-Koeffizienten der Konkordanz betrachten.

Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.

Kappa kann Werte im Bereich von 1 bis +1 annehmen. Je höher der Kappa-Wert ist, desto höher ist die Übereinstimmung, d. h.:
  • Bei Kappa = 1 liegt eine vollkommene Übereinstimmung vor.
  • Bei Kappa = 0 entspricht die Übereinstimmung der erwarteten zufälligen Übereinstimmung.
  • Bei Kappa < 0 ist die Übereinstimmung geringer als die erwartete zufällige Übereinstimmung. Dies tritt jedoch sehr selten auf.

Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.

Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.

Hinweis

Bedenken Sie, dass die Tabelle „Zwischen Prüfern“ angibt, ob die Einstufungen der Prüfer einheitlich sind, jedoch nicht, ob die Einstufungen mit den Referenzwerten übereinstimmen. Einheitliche Einstufungen sind nicht unbedingt richtige Einstufungen.

Übereinstimmung der Bewertungen

# Geprüft# ÜbereinstimmungenProzent95%-KI
503774,00(59,66; 85,37)
# Übereinstimmungen: Die Bewertungen aller Prüfer stimmen miteinander überein.

Fleiss-Kappa-Statistik

AntwortKappaSE KappazP(vs > 0)
10,9543920,026726135,71010,0000
20,8276940,026726130,96950,0000
30,7725410,026726128,90580,0000
40,8911270,026726133,34290,0000
50,9681480,026726136,22480,0000
Gesamt0,8817050,013436265,62180,0000

Kendall-Koeffizient der Konkordanz

KoefChi-QdDFp
0,976681382,859490,0000
Wichtigste Ergebnisse: Kappa, Kendall-Koeffizient der Konkordanz

Alle Kappa-Werte sind größer als 0,77; dies weist auf eine minimal akzeptable Übereinstimmung zwischen den Prüfern hin. Die stärkste Übereinstimmung der Prüfer liegt bei den Stichproben 1 und 5 vor, während die geringste Übereinstimmung bei Stichprobe 3 festzustellen ist. Da die Daten ordinal sind, gibt Minitab den Kendall-Koeffizienten der Konkordanz (0,976681) aus, der auf eine äußerst starke Assoziation zwischen den Einstufungen der Prüfer hinweist.

Schritt 5: Richtigkeit der Antworten für alle Prüfer auswerten

Um die Richtigkeit der Einstufungen aller Prüfer auszuwerten, ziehen Sie die Kappa-Statistiken in der Tabelle „Alle Prüfer im Vergleich zum Standard“ heran. Bei ordinalen Einstufungen sollten Sie außerdem die Kendall-Koeffizienten der Konkordanz betrachten.

Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.

Kappa kann Werte im Bereich von 1 bis +1 annehmen. Je höher der Kappa-Wert ist, desto höher ist die Übereinstimmung, d. h.:
  • Bei Kappa = 1 liegt eine vollkommene Übereinstimmung vor.
  • Bei Kappa = 0 entspricht die Übereinstimmung der erwarteten zufälligen Übereinstimmung.
  • Bei Kappa < 0 ist die Übereinstimmung geringer als die erwartete zufällige Übereinstimmung. Dies tritt jedoch sehr selten auf.

Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.

Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.

Übereinstimmung der Bewertungen

# Geprüft# ÜbereinstimmungenProzent95%-KI
503774,00(59,66; 85,37)
# Übereinstimmungen: Die Bewertungen aller Prüfer stimmen mit dem bekannten Standard überein.

Fleiss-Kappa-Statistik

AntwortKappaSE KappazP(vs > 0)
10,9778970,050000019,55790,0000
20,8490680,050000016,98140,0000
30,8149920,050000016,29980,0000
40,9445800,050000018,89160,0000
50,9837560,050000019,67510,0000
Gesamt0,9120820,025170536,23620,0000

Kendall-Korrelationskoeffizient

KoefSE Koefzp
0,9655630,034503327,98170,0000
Wichtigste Ergebnisse: Kappa, Kendall-Koeffizient der Konkordanz

Diese Ergebnisse zeigen, dass bei 37 der 50 Stichproben die Einstufungen aller Prüfer den Standardeinstufungen entsprachen. Der Kappa-Gesamtwert beträgt 0,912082; dies weist auf eine starke Übereinstimmung mit den Standardwerten hin. Da die Daten ordinal sind, gibt Minitab den Kendall-Koeffizienten der Konkordanz (0,965563) aus, der auf eine starke Assoziation zwischen den Einstufungen und den Standardwerten hinweist.