数据中类别的水平。例如,如果检验员使用 1 至 5 级,则响应为 1 至 5 个等级。
Kappa 是检验员一致的次数比例(针对偶然一致性校正)与检验员本应一致的最大次数比例(针对偶然一致性校正)的比率。
当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。
Minitab 可以计算 Fleiss 的 kappa 和 Cohen 的 kappa。Cohen 的 kappa 是常用于测量 2 个评定员间的评估一致性的统计量。Fleiss 的 kappa 是对 2 个以上评定员的 Cohen 的 kappa 的一般化。在属性一致性分析中,默认情况下,Minitab 计算 Fleiss 的 kappa。
AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。
当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。
有关详细信息,请参见Kappa 统计量和 Kendall 的系数。
估计的 kappa 统计量的标准误度量估计的精度。标准误越小,估计值越精确。
Z 是 z 值,是近似正态检验统计量。Minitab 使用 z 值确定 p 值。
p 值是测量反对原假设的证据的概率。p 值越低将提供反对原假设的证据越强。
Minitab 使用 z 值确定 p 值。