Para determinar la consistencia de las clasificaciones de cada evaluador, examine la gráfica Por evaluador. Compare el porcentaje de coincidencia (círculo azul) con el intervalo de confianza del porcentaje de coincidencia (línea roja) para cada evaluador.
Para determinar lo correcto de las clasificaciones de cada evaluador, examine la gráfica Evaluador vs. el estándar. Compare el porcentaje de coincidencia (círculo azul) con el intervalo de confianza del porcentaje de coincidencia (línea roja) para cada evaluador.
Minitab solo muestra la gráfica Por evaluador cuando se tienen múltiples ensayos.
Esta gráfica Por evaluador indica que Amanda tiene las clasificaciones más consistentes y Eric tiene las clasificaciones menos consistentes. La gráfica Evaluador vs. el estándar indica que Amanda tiene las calificaciones más correctas y Eric tiene las clasificaciones menos correctas.
Para determinar la consistencia de las clasificaciones de cada evaluador, examine los estadísticos kappa de la tabla Por evaluador. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de concordancia de Kendall. Minitab muestra la tabla Por evaluador cuando cada evaluador clasifica un elemento más de una vez.
Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.
El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.
Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.
Recuerde que la tabla Por evaluador indica si las clasificaciones de los evaluadores son consistentes, pero no si las clasificaciones concuerdan con los valores de referencia. Las clasificaciones consistentes no necesariamente son clasificaciones correctas.
Muchos de los valores de kappa son iguales a 1, lo cual indica una concordancia perfecta del evaluador entre los ensayos. Algunos de los valores de kappa de Eric están cerca de 0.70. Convendría investigar por qué las clasificaciones de Eric para esas muestras fueron inconsistentes. Como los datos son ordinales, Minitab proporciona el coeficiente de los valores de concordancia de Kendall. Todos estos valores son mayores que 0.98, lo que indica una fuerte asociación entre las clasificaciones de cada evaluador.
Para determinar lo correcto de las clasificaciones de cada evaluador, examine los estadísticos kappa de la tabla Cada evaluador vs. el estándar. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de correlación de Kendall. Minitab muestra la tabla Cada evaluador vs. el estándar cuando usted especifica un valor de referencia para cada muestra.
Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.
El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.
Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.
La mayoría de los valores de kappa es mayor que 0.80, lo cual indica una concordancia adecuada entre cada evaluador y el estándar. Algunos de los valores de kappa están cerca de 0.70, lo cual indica que pudiera ser necesario investigar más a fondo ciertas muestras o a ciertos evaluadores. Como los datos son ordinales, Minitab proporciona los coeficientes de correlación de Kendall. Estos valores varían de 0.951863 y 0.975168, lo que indica una fuerte asociación entre las clasificaciones y los valores estándar.
Para determinar la consistencia entre las clasificaciones de los evaluadores, examine los estadísticos kappa de la tabla Entre evaluadores. Cuando las clasificaciones sean ordinales, también debería evaluar el coeficiente de concordancia de Kendall.
Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.
El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.
Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.
Recuerde que la tabla Entre evaluadores indica si las clasificaciones de los evaluadores son consistentes, pero no si las clasificaciones concuerdan con los valores de referencia. Las clasificaciones consistentes no necesariamente son clasificaciones correctas.
Todos los valores de kappa son mayores que 0.77, lo cual indica una concordancia mínimamente aceptable entre los evaluadores. Los evaluadores coinciden más con respecto a las muestras 1 y 5 y menos con respecto a la muestra 3. Como los datos son ordinales, Minitab proporciona el coeficiente de concordancia de Kendall (0.976681), que indica una asociación muy fuerte entre las clasificaciones de los evaluadores.
Para determinar lo correcto de todas las clasificaciones de los evaluadores, examine los estadísticos kappa de la tabla Todos los evaluadores vs. el estándar. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de concordancia de Kendall.
Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.
El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.
Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.
Estos resultados muestran que todos los evaluadores coincidieron de forma correcta con las clasificaciones estándar en 37 de las 50 muestras. El valor general de kappa es 0.912082, lo que indica una fuerte concordancia con los valores estándar. Como los datos son ordinales, Minitab proporciona el coeficiente de concordancia de Kendall (0.965563), que indica una fuerte asociación entre las clasificaciones y los valores estándar.