Estatísticas kappa para Análise de concordância por atributos

Encontre definições e orientações de interpretação para as estatísticas kappa.

Resposta

O nível de categorias nos dados. Por exemplo, se os avaliadores usam uma escala de 1 a 5, as respostas são de 1 a 5.

Kappa

Kappa é a relação entre a proporção de vezes que os avaliadores concordam (corrigido para a concordância do acaso) com a proporção máxima de vezes que os avaliadores poderiam concordar (corrigido para a concordância de chance).

Use as estatísticas kappa para avaliar o grau de concordância das classificações nominais ou ordinais feitas por vários avaliadores quando os avaliadores avaliarem as mesmas amostras.

O Minitab pode calcular tanto kappa de Fleiss e kappa de Cohen. Kappa de Cohen é uma estatística popular para medir a concordância de avaliação entre dois avaliadores. O kappa de Fleiss é uma generalização do kappa de Cohen para mais de dois avaliadores. Na Análise de Concordância por Atributos, o Minitab calcula kappa de Fleiss por padrão.

O Minitab pode calcular kappa de Cohen quando seus dados satisfizerem os seguintes requisitos:
  • Para calcular kappa de Cohen para Dentro do Avaliador, você deve ter dois ensaios para cada avaliador.
  • Para calcular kappa de Cohen para Entre Avaliadores, você deve ter dois avaliadores com um ensaio.
  • Para calcular kappa de Cohen para Cada avaliador x padrão e Todos os avaliadores x padrão, você deve fornecer um padrão para cada amostra.

Interpretação

Os valores de Kappa variam de -1 até +1. Quanto maior o valor de kappa, mais forte a concordância, da seguinte maneira:
  • Quando kappa = 1, existe uma concordância perfeita.
  • Quando kappa = 0, a concordância é aquela que seria esperada ao acaso.
  • Quando kappa < 0, a concordância é mais fraca do que seria esperado ao acaso, o que raramente ocorre.

A AIAG sugere que um valor de kappa de pelo menos 0,75 indica uma boa concordância. No entanto, valores kappa maiores, como 0,90 como, são preferíveis.

Com classificações ordinais, como a classificação da gravidade de defeitos em uma escala de 1 a 5, os coeficientes de Kendall, que são responsáveis pela ordenação, são geralmente estatísticas mais apropriadas para determinar a associação do que apenas kappa.

Para obter mais informações, consulte Estatísticas Kappa e coeficientes de Kendall.

SE Kappa

O erro padrão para uma estatística de kappa estimada mede a precisão da estimativa. Quando menor o erro padrão, mais precisa é a estimativa.

Z

Z é o valor de z, que é a estatística de teste normal aproximada. O Minitab usa o valor de z para determinar o valor de p.

P(vs > 0)

O valor de p é uma probabilidade que mede a evidência contra a hipótese nula. Os valores de inferiores fornecem evidência mais forte contra a hipótese nula.

Use o valor de p para kappa para determinar se deve rejeitar ou deixar de rejeitar as seguintes hipóteses nulas:
  • H0 para Dentro do avaliador: a concordância dentro de avaliador é devida ao acaso.
  • H0 para Cada avaliador x padrão: a concordância entre as classificações dos avaliadores e o padrão é devida ao acaso.
  • H0 para Entre avaliadores: a concordância entre avaliadores é devida ao acaso.
  • H0 para Todos os avaliadores x padrão: a concordância entre todas as classificações dos avaliadores e o padrão é devida ao acaso.

O Minitab usa o valor de z para determinar o valor de p.

Interpretação

Para determinar se a concordância é devida ao acaso, compare o valor de p ao nível de significância. Em geral, um nível de significância (denotado como α ou alfa) de 0,05 funciona bem. Um nível de significância de 0,05 indica que o risco de concluir que os avaliadores estão em concordância quando, na verdade, eles não estão é de 5%.
Valor de p ≤ α: a concordância do avaliador não é devida ao acaso (rejeitar H0)
Se o valor de p for menor ou igual ao nível de significância, você rejeita a hipótese nula e conclui que a concordância do avaliador é significativamente diferente do que seria obtida por acaso.
Valor de P > α: a concordância do avaliador é devida ao acaso (não rejeita H0)
Se o valor de p for maior do que o nível de significância, você deixa de rejeitar a hipótese nula porque não tem provas suficientes para concluir que a concordância do avaliador é diferente do que seria obtida por acaso.