属性一致性分析 的 Kappa 统计量

为 Kappa 统计量查找定义和解释指南。

响应

数据中类别的水平。例如,如果检验员使用 1 至 5 级,则响应为 1 至 5 个等级。

Kappa

Kappa 是检验员一致的次数比例(针对偶然一致性校正)与检验员本应一致的最大次数比例(针对偶然一致性校正)的比率。

当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。

Minitab 可以计算 Fleiss 的 kappa 和 Cohen 的 kappa。Cohen 的 kappa 是常用于测量 2 个评定员间的评估一致性的统计量。Fleiss 的 kappa 是对 2 个以上评定员的 Cohen 的 kappa 的一般化。在属性一致性分析中,默认情况下,Minitab 计算 Fleiss 的 kappa。

当数据满足以下要求时,Minitab 可计算 Cohen 的 kappa:
  • 要为“检验员自身”计算 Cohen 的 kappa,每个检验员必须有 2 个试验。
  • 要为“检验员之间”计算 Cohen 的 kappa,必须有 2 个均具有 1 个试验的检验员。
  • 要为“每个检验员与标准”和“所有检验员与标准”计算 Cohen 的 kappa,必须为每个样本提供一个标准。

解释

Kappa 值的范围为 –1 到 +1。kappa 值越高,一致性就越高,如下所示:
  • Kappa = 1 时,表明完全一致。
  • Kappa = 0 时,则一致性与偶然预期的相同。
  • Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。

有关详细信息,请参见Kappa 统计量和 Kendall 的系数

Kappa 标准误

估计的 kappa 统计量的标准误度量估计的精度。标准误越小,估计值越精确。

Z

Z 是 z 值,是近似正态检验统计量。Minitab 使用 z 值确定 p 值。

P(vs > 0)

p 值是测量反对原假设的证据的概率。p 值越低将提供反对原假设的证据越强。

使用 kappa 的 p 值决定是否拒绝或无法拒绝以下原假设:
  • “检验员自身”的 H0:检验员自身的一致性可归因于偶然性。
  • “每个检验员与标准”的 H0:检验员的评级与标准之间的一致性可归因于偶然性。
  • “检验员之间”的 H0:检验员之间的一致性可归因于偶然性。
  • “所有检验员与标准”的 H0:所有检验员的评级与标准之间的一致性可归因于偶然性。

Minitab 使用 z 值确定 p 值。

解释

要确定一致性是否归因于偶然性,请将 p 值与显著性水平相比较。通常,显著性水平(用 α 或 alpha 表示)为 0.05 即可。显著性水平 0.05 表示在检验员不一致时,有 5% 的风险会将其断定为一致。
P 值 ≤ α:检验员一致性不能归因于偶然性(拒绝 H0
如果 p 值小于或等于显著性水平,则拒绝原假设,并得出结论:检验员一致性与偶然实现的一致性显著不同。
P 值 > α:检验员一致性可归因于偶然性(无法拒绝 H0
如果 p 值大于显著水平,则无法拒绝原假设,因为您没有充分的证据得出结论:检验员一致性与偶然实现的一致性不同。