O nível de categorias nos dados. Por exemplo, se os avaliadores usam uma escala de 1 a 5, as respostas são de 1 a 5.
Kappa é a relação entre a proporção de vezes que os avaliadores concordam (corrigido para a concordância do acaso) com a proporção máxima de vezes que os avaliadores poderiam concordar (corrigido para a concordância de chance).
Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.
O Minitab pode calcular tanto kappa de Fleiss e kappa de Cohen. Kappa de Cohen é uma estatística popular para medir a concordância de avaliação entre dois avaliadores. O kappa de Fleiss é uma generalização do kappa de Cohen para mais de dois avaliadores. Na Análise de Concordância por Atributos, o Minitab calcula kappa de Fleiss por padrão.
A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.
Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.
Para obter mais informações, consulte Estatísticas Kappa e coeficientes de Kendall.
O erro padrão para uma estatística de kappa estimada mede a precisão da estimativa. Quando menor o erro padrão, mais precisa é a estimativa.
Z é o valor de z, que é a estatística de teste normal aproximada. O Minitab usa o valor de z para determinar o valor de p.
O valor de p é uma probabilidade que mede a evidência contra a hipótese nula. Os valores de inferiores fornecem evidência mais forte contra a hipótese nula.
O Minitab usa o valor de z para determinar o valor de p.