Angeben der Optionen für Prüferübereinstimmung bei attributiven Daten

Statistik > Qualitätswerkzeuge > Prüferübereinstimmung bei attributiven Daten > Optionen
Cohen-Kappa berechnen, sofern angemessen
Wählen Sie diese Option aus, um die Cohen-Kappa-Statistik zu berechnen. Minitab berechnet das Cohen-Kappa, wenn die Daten die folgenden Anforderungen erfüllen:
  • Zum Berechnen des Cohen-Kappa für „Innerhalb der Prüfer“ müssen für jeden Prüfer zwei Versuche vorhanden sein.
  • Zum Berechnen des Cohen-Kappa für „Zwischen Prüfern“ müssen zwei Prüfer mit jeweils einem Versuch vorhanden sein.
  • Zum Berechnen des Cohen-Kappa für „Jeder Prüfer im Vergleich zum Standard“ und „Alle Prüfer im Vergleich zum Standard“ müssen Sie einen Standard für jede Stichprobe angeben.
Tabelle der Nichtübereinstimmungen anzeigen
Die Tabelle der Nichtübereinstimmungen wird angezeigt. Minitab zeigt die Anzahl der Fälle an, in denen die Bewertungen der einzelnen Prüfer von einem bekannten Referenzwert abweichen. Zum Aktivieren dieses Kontrollkästchens müssen Sie im Hauptdialogfeld die Spalte angeben, die die bekannten Referenzwerte enthält.
Konfidenzniveau
Geben Sie eine Zahl zwischen 0 und 100 ein, um das Konfidenzniveau für die Konfidenzintervalle anzugeben. Dieser Wert wird für alle Konfidenzintervalle für die Übereinstimmungen der Bewertungen angezeigt.