Para uma análise de concordância por atributos, você testa a concordância observando os valores de p para as estatísticas kappa e os coeficientes de Kendall.
Hipóteses para Kappa
Para Dentro do avaliador, as hipóteses para testar a concordância são:
H0: a concordância dentro do avaliador é devida ao acaso.
H1: a concordância dentro do avaliador não é devida ao acaso.
Para Cada avaliador x padrão, as hipóteses para testar para a concordância são:
H0 a concordância entre as classificações dos avaliadores e o padrão é devida ao acaso.
H1 a concordância entre as classificações dos avaliadores e o padrão não é devida ao acaso.
Para Entre Avaliadores, as hipóteses para testar para concordância:
H0: a concordância entre avaliadores é devida ao acaso.
H1: a concordância entre avaliadores não é devida ao acaso.
Para Todos os avaliadores versus padrão, as hipóteses para testar para a concordância são:
H0 a concordância entre as classificações dos avaliadores e o padrão é devida ao acaso.
H1 a concordância entre as classificações dos avaliadores e o padrão não é devida ao acaso.
Hipóteses para o Coeficiente de Kendall
Para Dentro do avaliador, as hipóteses para testar a concordância são:
H0: não há nenhuma associação entre as várias classificações feitas por um avaliador.
H1: as classificações dentro avaliador estão associadas.
Para Cada avaliador x padrão, as hipóteses para testar para a concordância são:
H0: não há nenhuma associação entre as classificações de cada avaliador e o padrão.
H1: as classificações de cada avaliador estão associadas com o padrão.
Para Entre Avaliadores, as hipóteses para testar para concordância:
H0: não há nenhuma associação entre as classificações dos avaliadores.
H1: as classificações entre os avaliadores estão associadas.
Para Todos os avaliadores versus padrão, as hipóteses para testar para a concordância são:
H0: não existe associação entre as classificações de todos os avaliadores e o padrão conhecido.
H1: as classificações de todos os avaliadores estão associadas ao padrão conhecido.