Interpretar los resultados clave para Análisis de concordancia de atributos

Complete los siguientes pasos para interpretar un análisis de concordancia de atributos. La salida clave incluye los estadísticos kappa, los estadísticos de Kendall y las gráficas de concordancia de atributos.

Paso 1: Evaluar la concordancia del evaluador de forma visual

Para determinar la consistencia de las clasificaciones de cada evaluador, examine la gráfica Por evaluador. Compare el porcentaje de coincidencia (círculo azul) con el intervalo de confianza del porcentaje de coincidencia (línea roja) para cada evaluador.

Para determinar lo correcto de las clasificaciones de cada evaluador, examine la gráfica Evaluador vs. el estándar. Compare el porcentaje de coincidencia (círculo azul) con el intervalo de confianza del porcentaje de coincidencia (línea roja) para cada evaluador.

Nota

Minitab solo muestra la gráfica Por evaluador cuando se tienen múltiples ensayos.

Esta gráfica Por evaluador indica que Amanda tiene las clasificaciones más consistentes y Eric tiene las clasificaciones menos consistentes. La gráfica Evaluador vs. el estándar indica que Amanda tiene las calificaciones más correctas y Eric tiene las clasificaciones menos correctas.

Paso 2: Evaluar la consistencia de las respuestas para cada evaluador

Para determinar la consistencia de las clasificaciones de cada evaluador, examine los estadísticos kappa de la tabla Por evaluador. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de concordancia de Kendall. Minitab muestra la tabla Por evaluador cuando cada evaluador clasifica un elemento más de una vez.

Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.

Los valores de kappa varían de –1 a +1. Mientras más alto sea el valor de kappa, más fuerte será la concordancia, como se muestra a continuación:
  • Cuando Kappa = 1, existe concordancia perfecta.
  • Cuando Kappa = 0, la concordancia es la misma que se esperaría en virtud de las probabilidades.
  • Cuando Kappa < 0, la concordancia es más débil que lo esperado en virtud de las probabilidades; esto casi nunca sucede.

El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.

Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.

Nota

Recuerde que la tabla Por evaluador indica si las clasificaciones de los evaluadores son consistentes, pero no si las clasificaciones concuerdan con los valores de referencia. Las clasificaciones consistentes no necesariamente son clasificaciones correctas.

Acuerdo de evaluación

EvaluadorNo. de inspeccionadosNo. de coincidenciasPorcentajeIC de 95%
Amanda5050100.00(94.18, 100.00)
Britt504896.00(86.29, 99.51)
Eric504386.00(73.26, 94.18)
Mike504590.00(78.19, 96.67)
No. de coincidencias: El evaluador coincide consigo a través de las pruebas.

Estadísticos Kappa de Fleiss

EvaluadorRespuestaKappaError estándar de KappaZP(vs > 0)
Amanda11.000000.1414217.07110.0000
  21.000000.1414217.07110.0000
  31.000000.1414217.07110.0000
  41.000000.1414217.07110.0000
  51.000000.1414217.07110.0000
  General1.000000.07105214.07410.0000
Britt11.000000.1414217.07110.0000
  20.896050.1414216.33600.0000
  30.864500.1414216.11290.0000
  41.000000.1414217.07110.0000
  51.000000.1414217.07110.0000
  General0.949650.07140113.30020.0000
Eric10.830600.1414215.87330.0000
  20.840000.1414215.93970.0000
  30.702380.1414214.96660.0000
  40.702380.1414214.96660.0000
  51.000000.1414217.07110.0000
  General0.823540.07159111.50340.0000
Mike11.000000.1414217.07110.0000
  20.830600.1414215.87330.0000
  30.819170.1414215.79240.0000
  40.864500.1414216.11290.0000
  50.864500.1414216.11290.0000
  General0.874720.07094512.32950.0000

Coeficiente de concordancia de Kendall

EvaluadorCoefChi-cuad.GLP
Amanda1.0000098.0000490.0000
Britt0.9944897.4587490.0000
Eric0.9844696.4769490.0001
Mike0.9870096.7256490.0001
Resultados clave: Kappa, coeficiente de concordancia de Kendall

Muchos de los valores de kappa son iguales a 1, lo cual indica una concordancia perfecta del evaluador entre los ensayos. Algunos de los valores de kappa de Eric están cerca de 0.70. Convendría investigar por qué las clasificaciones de Eric para esas muestras fueron inconsistentes. Como los datos son ordinales, Minitab proporciona el coeficiente de los valores de concordancia de Kendall. Todos estos valores son mayores que 0.98, lo que indica una fuerte asociación entre las clasificaciones de cada evaluador.

Paso 3: Evaluar lo correcto de las respuestas para cada evaluador

Para determinar lo correcto de las clasificaciones de cada evaluador, examine los estadísticos kappa de la tabla Cada evaluador vs. el estándar. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de correlación de Kendall. Minitab muestra la tabla Cada evaluador vs. el estándar cuando usted especifica un valor de referencia para cada muestra.

Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.

Los valores de kappa varían de –1 a +1. Mientras más alto sea el valor de kappa, más fuerte será la concordancia, como se muestra a continuación:
  • Cuando Kappa = 1, existe concordancia perfecta.
  • Cuando Kappa = 0, la concordancia es la misma que se esperaría en virtud de las probabilidades.
  • Cuando Kappa < 0, la concordancia es más débil que lo esperado en virtud de las probabilidades; esto casi nunca sucede.

El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.

Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.

Acuerdo de evaluación

EvaluadorNo. de inspeccionadosNo. de coincidenciasPorcentajeIC de 95%
Amanda504794.00(83.45, 98.75)
Britt504692.00(80.77, 97.78)
Eric504182.00(68.56, 91.42)
Mike504590.00(78.19, 96.67)
No. de coincidencias: La estimación del evaluador en los diferentes ensayos coincide con el
     estándar conocido.

Estadísticos Kappa de Fleiss

EvaluadorRespuestaKappaError estándar de KappaZP(vs > 0)
Amanda11.000000.10000010.00000.0000
  20.830600.1000008.30600.0000
  30.819170.1000008.19170.0000
  41.000000.10000010.00000.0000
  51.000000.10000010.00000.0000
  General0.924760.05025718.40060.0000
Britt11.000000.10000010.00000.0000
  20.838380.1000008.38380.0000
  30.807250.1000008.07250.0000
  41.000000.10000010.00000.0000
  51.000000.10000010.00000.0000
  General0.924620.05039618.34730.0000
Eric10.911590.1000009.11590.0000
  20.810350.1000008.10350.0000
  30.726190.1000007.26190.0000
  40.849190.1000008.49190.0000
  51.000000.10000010.00000.0000
  General0.861630.05050017.06220.0000
Mike11.000000.10000010.00000.0000
  20.916940.1000009.16940.0000
  30.907360.1000009.07360.0000
  40.929130.1000009.29130.0000
  50.935020.1000009.35020.0000
  General0.937320.05021118.66740.0000

Coeficiente de correlación de Kendall

EvaluadorCoefEE del Coef.ZP
Amanda0.9673860.069006614.01280.0000
Britt0.9678350.069006614.01930.0000
Eric0.9518630.069006613.78790.0000
Mike0.9751680.069006614.12560.0000
Resultados clave: Kappa, coeficiente de correlación de Kendall

La mayoría de los valores de kappa es mayor que 0.80, lo cual indica una concordancia adecuada entre cada evaluador y el estándar. Algunos de los valores de kappa están cerca de 0.70, lo cual indica que pudiera ser necesario investigar más a fondo ciertas muestras o a ciertos evaluadores. Como los datos son ordinales, Minitab proporciona los coeficientes de correlación de Kendall. Estos valores varían de 0.951863 y 0.975168, lo que indica una fuerte asociación entre las clasificaciones y los valores estándar.

Paso 4: Evaluar la consistencia de las respuestas entre los evaluadores

Para determinar la consistencia entre las clasificaciones de los evaluadores, examine los estadísticos kappa de la tabla Entre evaluadores. Cuando las clasificaciones sean ordinales, también debería evaluar el coeficiente de concordancia de Kendall.

Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.

Los valores de kappa varían de –1 a +1. Mientras más alto sea el valor de kappa, más fuerte será la concordancia, como se muestra a continuación:
  • Cuando Kappa = 1, existe concordancia perfecta.
  • Cuando Kappa = 0, la concordancia es la misma que se esperaría en virtud de las probabilidades.
  • Cuando Kappa < 0, la concordancia es más débil que lo esperado en virtud de las probabilidades; esto casi nunca sucede.

El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.

Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.

Nota

Recuerde que la tabla Entre evaluadores indica si las clasificaciones de los evaluadores son consistentes, pero no si las clasificaciones concuerdan con los valores de referencia. Las clasificaciones consistentes no necesariamente son clasificaciones correctas.

Acuerdo de evaluación

No. de inspeccionadosNo. de coincidenciasPorcentajeIC de 95%
503774.00(59.66, 85.37)
No. de coincidencias: Todas las estimaciones de los evaluadores coinciden  entre sí.

Estadísticos Kappa de Fleiss

RespuestaKappaError estándar de KappaZP(vs > 0)
10.9543920.026726135.71010.0000
20.8276940.026726130.96950.0000
30.7725410.026726128.90580.0000
40.8911270.026726133.34290.0000
50.9681480.026726136.22480.0000
General0.8817050.013436265.62180.0000

Coeficiente de concordancia de Kendall

CoefChi-cuad.GLP
0.976681382.859490.0000
Resultados clave: Kappa, coeficiente de concordancia de Kendall

Todos los valores de kappa son mayores que 0.77, lo cual indica una concordancia mínimamente aceptable entre los evaluadores. Los evaluadores coinciden más con respecto a las muestras 1 y 5 y menos con respecto a la muestra 3. Como los datos son ordinales, Minitab proporciona el coeficiente de concordancia de Kendall (0.976681), que indica una asociación muy fuerte entre las clasificaciones de los evaluadores.

Paso 5: Evaluar lo correcto de las respuestas para todos los evaluadores

Para determinar lo correcto de todas las clasificaciones de los evaluadores, examine los estadísticos kappa de la tabla Todos los evaluadores vs. el estándar. Cuando las clasificaciones sean ordinales, también debería evaluar los coeficientes de concordancia de Kendall.

Utilice los estadísticos kappa para evaluar el grado de concordancia de las clasificaciones nominales u ordinales realizadas por múltiples evaluadores cuando los evaluadores evalúen las mismas muestras.

Los valores de kappa varían de –1 a +1. Mientras más alto sea el valor de kappa, más fuerte será la concordancia, como se muestra a continuación:
  • Cuando Kappa = 1, existe concordancia perfecta.
  • Cuando Kappa = 0, la concordancia es la misma que se esperaría en virtud de las probabilidades.
  • Cuando Kappa < 0, la concordancia es más débil que lo esperado en virtud de las probabilidades; esto casi nunca sucede.

El grupo AIAG sugiere que un valor de kappa de al menos 0.75 indica una concordancia adecuada. Sin embargo, se prefieren valores de kappa más grandes, como 0.90.

Cuando tenga clasificaciones ordinales, tales como clasificaciones de la gravedad de los defectos en una escala del 1 al 5, los coeficientes de Kendall, que consideran el orden, suelen ser estadísticos más apropiados para evaluar la asociación que el uso de kappa solamente.

Acuerdo de evaluación

No. de inspeccionadosNo. de coincidenciasPorcentajeIC de 95%
503774.00(59.66, 85.37)
No. de coincidencias: Todas las estimaciones de los evaluadores coinciden con el estándar
     conocido.

Estadísticos Kappa de Fleiss

RespuestaKappaError estándar de KappaZP(vs > 0)
10.9778970.050000019.55790.0000
20.8490680.050000016.98140.0000
30.8149920.050000016.29980.0000
40.9445800.050000018.89160.0000
50.9837560.050000019.67510.0000
General0.9120820.025170536.23620.0000

Coeficiente de correlación de Kendall

CoefEE del Coef.ZP
0.9655630.034503327.98170.0000
Resultados clave: Kappa, coeficiente de concordancia de Kendall

Estos resultados muestran que todos los evaluadores coincidieron de forma correcta con las clasificaciones estándar en 37 de las 50 muestras. El valor general de kappa es 0.912082, lo que indica una fuerte concordancia con los valores estándar. Como los datos son ordinales, Minitab proporciona el coeficiente de concordancia de Kendall (0.965563), que indica una fuerte asociación entre las clasificaciones y los valores estándar.