Interpretar os principais resultados para Análise de concordância por atributos

Conclua as etapas a seguir para interpretar uma Análise de concordância por atributos. A saída principal inclui estatística kappa, as estatísticas de Kendall e os gráficos de concordância por atributos.

Etapa 1: Avaliar a concordância do avaliador visualmente

Para determinar a consistência de cada classificação do avaliador, avalie o gráfico Entre Avaliadores. Compare o percentual correspondido (círculo azul) com o intervalo de confiança para o percentual correspondido (linha vermelha) para cada avaliador.

Para determinar a exatidão de cada classificação do avaliador, avalie o gráfico Avaliador vs Padrão. Compare o percentual correspondido (círculo azul) com o intervalo de confiança para o percentual correspondido (linha vermelha) para cada avaliador.

Observação

O Minitab exibe o gráfico Entre Avaliadores apenas quando houver vários ensaios.

Este gráfico dentro dos avaliadores indica que Amanda tem as classificações mais consistentes e Eric tem as classificações menos consistentes. O gráfico avaliador vs padrão indica que Amanda tem as classificações mais corretas e Eric tem as classificações menos corretas.

Etapa 2: Avaliar a consistência das repostas para cada avaliador

Para determinar a consistência de cada classificação do avaliador, avalie as estatísticas de kappa na tabela Nos Avaliadores. Quando as classificações forem ordinais, você deve avaliar também coeficientes de concordância de Kendall. O Minitab exibe a tabela Nos do Avaliadores quando cada avaliador classifica um item mais de uma vez.

Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.

Os valores de Kappa variam de -1 até +1. Quanto maior o valor de kappa, mais forte a concordância, da seguinte maneira:
  • Quando kappa = 1, existe uma concordância perfeita.
  • Quando kappa = 0, a concordância é aquela que seria esperada ao acaso.
  • Quando kappa < 0, a concordância é mais fraca do que seria esperado ao acaso, o que raramente ocorre.

A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.

Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.

Observação

Lembre-se de que a tabela de Nos Avaliadores indica se classificações dos avaliadores são consistentes, mas não se as classificações concordam com os valores de referência. Classificações consistentes não são necessariamente classificações corretas.

Concordância de Avaliação

Avaliador
de Inspecionados

de Correspondências
PercentualIC de 95%
Amanda5050100,00(94,18; 100,00)
Britt504896,00(86,29; 99,51)
Eric504386,00(73,26; 94,18)
Mike504590,00(78,19; 96,67)
Nº de Concordâncias: O avaliador concorda com os ensaios.

Estatísticas de Kappa de Fleiss

AvaliadorRespostaKappaEP de KappaZP(vs > 0)
Amanda11,000000,1414217,07110,0000
  21,000000,1414217,07110,0000
  31,000000,1414217,07110,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global1,000000,07105214,07410,0000
Britt11,000000,1414217,07110,0000
  20,896050,1414216,33600,0000
  30,864500,1414216,11290,0000
  41,000000,1414217,07110,0000
  51,000000,1414217,07110,0000
  Global0,949650,07140113,30020,0000
Eric10,830600,1414215,87330,0000
  20,840000,1414215,93970,0000
  30,702380,1414214,96660,0000
  40,702380,1414214,96660,0000
  51,000000,1414217,07110,0000
  Global0,823540,07159111,50340,0000
Mike11,000000,1414217,07110,0000
  20,830600,1414215,87330,0000
  30,819170,1414215,79240,0000
  40,864500,1414216,11290,0000
  50,864500,1414216,11290,0000
  Global0,874720,07094512,32950,0000

Coeficiente de Concordância de Kendall

AvaliadorCoefQui-QuadradoGLP
Amanda1,0000098,0000490,0000
Britt0,9944897,4587490,0000
Eric0,9844696,4769490,0001
Mike0,9870096,7256490,0001
Resultados chave: Kappa, coeficiente de concordância de Kendall

Muitos dos valores de kappa são 1, que indica uma concordância perfeita dentro de um avaliador entre ensaios. Alguns dos valores de kappa de Eric estão perto de 0,70. Talvez você queira investigar a razão pela qual as classificações de Eric daquelas amostras estavam inconsistentes. Como os dados são ordinais, o Minitab fornece os valores de coeficiente de concordância de Kendall. Estes valores são todos superiores a 0,98, o que indica uma associação muito forte dentro das classificações do avaliador.

Etapa 3: Avaliar a precisão das repostas para cada avaliador

Para determinar a precisão de cada classificação do avaliador, avalie as estatísticas de kappa na tabela Cada avaliador x padrão. Quando as classificações forem ordinais, você deve avaliar também coeficientes de correlação de Kendall. O Minitab exibe a tabela Cada avaliador x padrão — avaliação da concordância exibe quando você especifica um valor de referência para cada amostra.

Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.

Os valores de Kappa variam de -1 até +1. Quanto maior o valor de kappa, mais forte a concordância, da seguinte maneira:
  • Quando kappa = 1, existe uma concordância perfeita.
  • Quando kappa = 0, a concordância é aquela que seria esperada ao acaso.
  • Quando kappa < 0, a concordância é mais fraca do que seria esperado ao acaso, o que raramente ocorre.

A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.

Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.

Concordância de Avaliação

Avaliador
de Inspecionados

de Correspondências
PercentualIC de 95%
Amanda504794,00(83,45; 98,75)
Britt504692,00(80,77; 97,78)
Eric504182,00(68,56; 91,42)
Mike504590,00(78,19; 96,67)
Nº de Correspondências: A avaliação do avaliador ao longo dos ensaios concorda com o padrão
     conhecido.

Estatísticas de Kappa de Fleiss

AvaliadorRespostaKappaEP de KappaZP(vs > 0)
Amanda11,000000,10000010,00000,0000
  20,830600,1000008,30600,0000
  30,819170,1000008,19170,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924760,05025718,40060,0000
Britt11,000000,10000010,00000,0000
  20,838380,1000008,38380,0000
  30,807250,1000008,07250,0000
  41,000000,10000010,00000,0000
  51,000000,10000010,00000,0000
  Global0,924620,05039618,34730,0000
Eric10,911590,1000009,11590,0000
  20,810350,1000008,10350,0000
  30,726190,1000007,26190,0000
  40,849190,1000008,49190,0000
  51,000000,10000010,00000,0000
  Global0,861630,05050017,06220,0000
Mike11,000000,10000010,00000,0000
  20,916940,1000009,16940,0000
  30,907360,1000009,07360,0000
  40,929130,1000009,29130,0000
  50,935020,1000009,35020,0000
  Global0,937320,05021118,66740,0000

Coeficiente de Correlação de Kendall

AvaliadorCoefEP de CoefZP
Amanda0,9673860,069006614,01280,0000
Britt0,9678350,069006614,01930,0000
Eric0,9518630,069006613,78790,0000
Mike0,9751680,069006614,12560,0000
Resultados chave: Kappa, coeficiente de correlação de Kendall

A maioria dos valores de kappa são maiores do que 0,80, o que indica boa concordância entre cada avaliador e o padrão. Alguns dos valores de kappa estão perto de 0,70, o que indica talvez seja necessário investigar determinadas amostras ou ou determinados avaliadores mais detalhadamente. Como os dados são ordinais, o Minitab fornece os coeficientes de correlação de Kendall. Estes valores variam de 0,951863 e 0,975168, o que indica uma forte associação entre as classificações e os valores padrão.

Etapa 4: Avaliar a consistência de respostas entre avaliadores

Para determinar a consistência entre as classificações do avaliador, avalie as estatísticas de kappa na tabela Entre Avaliadores. Quando as classificações forem ordinais, você deve avaliar também coeficientes de concordância da Kendall.

Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.

Os valores de Kappa variam de -1 até +1. Quanto maior o valor de kappa, mais forte a concordância, da seguinte maneira:
  • Quando kappa = 1, existe uma concordância perfeita.
  • Quando kappa = 0, a concordância é aquela que seria esperada ao acaso.
  • Quando kappa < 0, a concordância é mais fraca do que seria esperado ao acaso, o que raramente ocorre.

A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.

Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.

Observação

Lembre-se de que a tabela de Entre Avaliadores indica se classificações dos avaliadores são consistentes, mas não se as classificações concordam com os valores de referência. Classificações consistentes não são necessariamente classificações corretas.

Concordância de Avaliação


de Inspecionados

de Correspondências
PercentualIC de 95%
503774,00(59,66; 85,37)
Nº de Correspondências: As avaliações de todos os avaliadores concordam entre si.

Estatísticas de Kappa de Fleiss

RespostaKappaEP de KappaZP(vs > 0)
10,9543920,026726135,71010,0000
20,8276940,026726130,96950,0000
30,7725410,026726128,90580,0000
40,8911270,026726133,34290,0000
50,9681480,026726136,22480,0000
Global0,8817050,013436265,62180,0000

Coeficiente de Concordância de Kendall

CoefQui-QuadradoGLP
0,976681382,859490,0000
Resultados chave: Kappa, coeficiente de concordância de Kendall

Todos os valores de kappa são maiores do que 0,77, o que indica concordância minimamente aceitável entre avaliadores. Os avaliadores têm a maioria das concordâncias para as amostras 1 e 5, e a concordância mínima para a amostra 3. Como os dados são ordinais, o Minitab fornece o coeficiente de Kendall de concordância (0,976681), o que indica uma forte associação entre as classificações do avaliador.

Etapa 5: Avaliar a precisão das repostas para todos os avaliadores

Para determinar a precisão de todas as classificações do avaliador, avalie as estatísticas kappa na tabela Todos os avaliadores versus padrão. Quando as classificações forem ordinais, você deve avaliar também coeficientes de concordância de Kendall.

Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.

Os valores de Kappa variam de -1 até +1. Quanto maior o valor de kappa, mais forte a concordância, da seguinte maneira:
  • Quando kappa = 1, existe uma concordância perfeita.
  • Quando kappa = 0, a concordância é aquela que seria esperada ao acaso.
  • Quando kappa < 0, a concordância é mais fraca do que seria esperado ao acaso, o que raramente ocorre.

A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.

Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.

Concordância de Avaliação


de Inspecionados

de Correspondências
PercentualIC de 95%
503774,00(59,66; 85,37)
Nº de Correspondências: As avaliações de todos os avaliadores concordam com o padrão
     conhecido.

Estatísticas de Kappa de Fleiss

RespostaKappaEP de KappaZP(vs > 0)
10,9778970,050000019,55790,0000
20,8490680,050000016,98140,0000
30,8149920,050000016,29980,0000
40,9445800,050000018,89160,0000
50,9837560,050000019,67510,0000
Global0,9120820,025170536,23620,0000

Coeficiente de Correlação de Kendall

CoefEP de CoefZP
0,9655630,034503327,98170,0000
Resultados chave: Kappa, coeficiente de concordância de Kendall

Estes resultados mostram que todos os avaliadores correspondem às classificações padrão em 37 das 50 amostras. O valor global de kappa é 0,912082, o que indica forte concordância com os valores padrão. Como os dados são ordinais, o Minitab fornece o coeficiente de Kendall de concordância (0,965563), o que indica uma forte associação entre as classificações e os valores padrão.