El nivel de categorías de los datos. Por ejemplo, si los evaluadores utilizan una escala del 1 al 5, las respuestas son del 1 al 5.
Kappa es la relación de la proporción de veces en las que los evaluadores concuerdan (corregida para la concordancia en virtud de las probabilidades) a la proporción máxima de veces que los evaluadores podrían concordar (corregido para la concordancia en virtud de las probabilidades).
Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.
Minitab puede calcular tanto el kappa de Fleiss como el kappa de Cohen. El kappa de Cohen es un estadístico que suele utilizarse para medir la concordancia en las evaluaciones entre 2 evaluadores. El kappa de Fleiss es una generalización del kappa de Cohen para más de 2 evaluadores. En el Análisis de concordancia de atributos, Minitab calcula el kappa de Fleiss por opción predeterminada.
El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.
Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.
Para obtener más información, véase Estadísticos kappa y coeficientes de Kendall.
El error estándar de un estadístico kappa estimado mide la precisión de la estimación. Cuanto menor sea el error estándar, más precisa será la estimación.
Z es el valor z, que es el estadístico de prueba normal aproximado. Minitab utiliza el valor z para determinar el valor p.
El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Los valores p más bajos proporcionan fuerte evidencia en contra de la hipótesis nula.
Minitab utiliza el valor Z para determinar el valor p.