Estadísticos kappa para Análisis de concordancia de atributos

Encuentre definiciones y ayuda para interpretar cada estadístico kappa.

Respuesta

El nivel de categorías de los datos. Por ejemplo, si los evaluadores utilizan una escala del 1 al 5, las respuestas son del 1 al 5.

Kappa

Kappa es la relación de la proporción de veces en las que los evaluadores concuerdan (corregida para la concordancia en virtud de las probabilidades) a la proporción máxima de veces que los evaluadores podrían concordar (corregido para la concordancia en virtud de las probabilidades).

Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.

Minitab puede calcular tanto el kappa de Fleiss como el kappa de Cohen. El kappa de Cohen es un estadístico que suele utilizarse para medir la concordancia en las evaluaciones entre 2 evaluadores. El kappa de Fleiss es una generalización del kappa de Cohen para más de 2 evaluadores. En el Análisis de concordancia de atributos, Minitab calcula el kappa de Fleiss por opción predeterminada.

Minitab puede calcular el kappa de Cohen cuando los datos satisfacen los siguientes requisitos:
  • Para calcular el kappa de Cohen para Por evaluador, usted debe tener 2 ensayos por cada evaluador.
  • Para calcular el kappa de Cohen para Entre los evaluadores, debe tener 2 evaluadores con 1 ensayo.
  • Para calcular el kappa de Cohen para Cada evaluador vs. el estándar y Todos los evaluadores vs. el estándar, debe especificar un valor estándar para cada muestra.

Interpretación

Los valores de kappa varían de –1 a +1. Mientras más alto sea el valor de kappa, más fuerte será la concordancia, como se muestra a continuación:
  • Cuando Kappa = 1, existe concordancia perfecta.
  • Cuando Kappa = 0, la concordancia es la misma que se esperaría en virtud de las probabilidades.
  • Cuando Kappa < 0, la concordancia es más débil que lo esperado en virtud de las probabilidades; esto casi nunca sucede.

El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.

Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.

Para obtener más información, véase Estadísticos kappa y coeficientes de Kendall.

EE de kappa

El error estándar de un estadístico kappa estimado mide la precisión de la estimación. Cuanto menor sea el error estándar, más precisa será la estimación.

Z

Z es el valor z, que es el estadístico de prueba normal aproximado. Minitab utiliza el valor z para determinar el valor p.

P(vs > 0)

El valor p es una probabilidad que mide la evidencia en contra de la hipótesis nula. Los valores p más bajos proporcionan fuerte evidencia en contra de la hipótesis nula.

Utilice el valor p de kappa para determinar si debe rechazar o no puede rechazar las siguientes hipótesis nulas:
  • H0 para Por evaluador: la concordancia por evaluador se debe a las probabilidades.
  • H0 para Cada evaluador vs. el estándar: la concordancia entre las clasificaciones de los evaluadores y el valor estándar se debe a las probabilidades.
  • H0 para Entre los evaluadores: la concordancia entre los evaluadores se debe a las probabilidades.
  • H0 para Todos los evaluadores vs. el estándar: la concordancia entre las clasificaciones de todos los evaluadores y el valor estándar se debe a las probabilidades.

Minitab utiliza el valor Z para determinar el valor p.

Interpretación

Para determinar si la concordancia se debe a las probabilidades, compare el valor p con el nivel de significancia. Por lo general, un nivel de significancia (denotado como α o alfa) de 0.05 funciona adecuadamente. Un nivel de significancia de 0.05 indica que el riesgo de concluir que los evaluadores coinciden, cuando en realidad no es así, es de 5%.
Valor p ≤ α: La concordancia de los evaluadores no se debe a las probabilidades (Rechazar H0)
Si el valor p es menor que o igual al nivel de significancia, usted rechaza la hipótesis nula y concluye que la concordancia de los evaluadores es significativamente diferente de lo que se podría obtener en virtud de las probabilidades.
Valor p > α: La concordancia de los evaluadores se debe a las probabilidades (No rechazar H0)
Si el valor p es mayor que el nivel de significancia, usted no puede rechazar la hipótesis nula, porque no cuenta con suficiente evidencia para concluir que la concordancia de los evaluadores es diferente de lo que se podría obtener en virtud de las probabilidades.
Al utilizar este sitio, usted acepta el uso de cookies para efectos de análisis y contenido personalizado.  Leer nuestra política