Um zu ermitteln, wie beständig die Einstufungen der einzelnen Prüfer ausfallen, werten Sie die Grafik „Innerhalb der Prüfer“ aus. Vergleichen Sie die prozentuale Übereinstimmung (blauer Kreis) mit dem Konfidenzintervall für die prozentuale Übereinstimmung (rote Linie) für jeden Prüfer.
Um die Richtigkeit der Einstufungen jedes Prüfers zu ermitteln, werten Sie die Grafik „Prüfer im Vergleich zum Standard“ aus. Vergleichen Sie die prozentuale Übereinstimmung (blauer Kreis) mit dem Konfidenzintervall für die prozentuale Übereinstimmung (rote Linie) für jeden Prüfer.
Minitab zeigt die Grafik „Innerhalb der Prüfer“ nur an, wenn mehrere Versuche vorliegen.
Um zu ermitteln, wie beständig die Einstufungen der einzelnen Prüfer ausfallen, werten Sie die Kappa-Statistiken in der Tabelle „Innerhalb der Prüfer“ aus. Bei ordinalen Einstufungen sollten Sie außerdem die Kendall-Koeffizienten der Konkordanz betrachten. Minitab zeigt die Tabelle „Innerhalb der Prüfer“ an, wenn jeder Prüfer eine Prüfeinheit mehrmals einstuft.
Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.
Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.
Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.
Bedenken Sie, dass die Tabelle „Innerhalb der Prüfer“ angibt, ob die Einstufungen der Prüfer einheitlich sind, jedoch nicht, ob die Einstufungen mit den Referenzwerten übereinstimmen. Einheitliche Einstufungen sind nicht unbedingt richtige Einstufungen.
Um die Richtigkeit der Einstufungen jedes Prüfers auszuwerten, betrachten Sie die Kappa-Statistiken in der Tabelle „Jeder Prüfer im Vergleich zum Standard“. Bei ordinalen Einstufungen sollten Sie darüber hinaus die Kendall-Koeffizienten der Konkordanz heranziehen. Minitab gibt die Tabelle „Jeder Prüfer im Vergleich zum Standard“ aus, wenn Sie für jede Stichprobe einen Referenzwert angeben.
Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.
Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.
Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.
Um zu ermitteln, wie einheitlich die Einstufungen zwischen den Prüfern ausfallen, werten Sie die Kappa-Statistiken in der Tabelle „Zwischen Prüfern“ aus. Bei ordinalen Einstufungen sollten Sie außerdem den Kendall-Koeffizienten der Konkordanz betrachten.
Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.
Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.
Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.
Bedenken Sie, dass die Tabelle „Zwischen Prüfern“ angibt, ob die Einstufungen der Prüfer einheitlich sind, jedoch nicht, ob die Einstufungen mit den Referenzwerten übereinstimmen. Einheitliche Einstufungen sind nicht unbedingt richtige Einstufungen.
Um die Richtigkeit der Einstufungen aller Prüfer auszuwerten, ziehen Sie die Kappa-Statistiken in der Tabelle „Alle Prüfer im Vergleich zum Standard“ heran. Bei ordinalen Einstufungen sollten Sie außerdem die Kendall-Koeffizienten der Konkordanz betrachten.
Anhand der Kappa-Statistiken können Sie den Grad der Übereinstimmung der nominalen oder ordinalen Einstufungen mehrerer Prüfer ermitteln, wenn mehrere Prüfer dieselben Stichproben einstufen.
Laut der AIAG lässt ein Kappa-Wert von mindestens 0,75 auf eine gute Übereinstimmung schließen. Größere Kappa-Werte wie 0,90 sind jedoch vorzuziehen.
Wenn ordinale Einstufungen vorliegen, z. B. Bewertungen des Schweregrads von Fehlern auf einer Skala von 1 bis 5, stellen Kendall-Koeffizienten, bei denen die Reihenfolge berücksichtigt wird, meist eine besser geeignete Statistik zum Bestimmen der Assoziation als Kappa allein dar.