解释 属性一致性分析 的主要结果

完成以下步骤解释属性一致性分析。主要输出包括 kappa 统计量、Kendall 的统计量以及属性一致性图。

步骤 1:以直观方式评估检验员一致性

要确定每位检验员评级的一致性,请评估“检验员自身”图。对于每位检验员,将匹配百分比(蓝圈)与匹配百分比的置信区间(红线)进行比较。

要确定每位检验员评级的正确性,请评估“每位检验员与标准”图。对于每位检验员,将匹配百分比(蓝圈)与匹配百分比的置信区间(红线)进行比较。

注意

仅当存在多个试验时,Mnitab 才会显示“检验员自身”图。

此“检验员自身”图显示 Amanda 的评级一致性最高,Eric 的评级一致性最低。“检验员与标准”图显示 Amanda 的评级正确性最高,Eric 的评级正确性最低。

第 2 步:评估每位评估员的响应的一致性

要确定每位评估员评级的一致性,请评估“评估员自身”表格中的 kappa 统计数据。如果是顺序评级,您还应评估 Kendall 的一致性系数。Minitab 会在每位评估员对一个项目评估多次时显示评估员自身表格。

当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。

Kappa 值的范围为 –1 到 +1。kappa 值越高,一致性就越高,如下所示:
  • Kappa = 1 时,表明完全一致。
  • Kappa = 0 时,则一致性与偶然预期的相同。
  • Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。

注意

切记,“评估员自身”表格可表示评估员的评级是否一致,但无法表示评级是否与参考值一致。一致的评级不一定是正确的评级。

评估一致性

检验员# 检验数# 相符数百分比95% 置信区间
Amanda5050100.00(94.18, 100.00)
Britt504896.00(86.29, 99.51)
Eric504386.00(73.26, 94.18)
Mike504590.00(78.19, 96.67)
# 相符数: 检验员在多个试验之间,他/她自身标准一致。

Fleiss 的 Kappa 统计量

检验员响应KappaKappa 标准误ZP(与 > 0)
Amanda11.000000.1414217.07110.0000
  21.000000.1414217.07110.0000
  31.000000.1414217.07110.0000
  41.000000.1414217.07110.0000
  51.000000.1414217.07110.0000
  整体1.000000.07105214.07410.0000
Britt11.000000.1414217.07110.0000
  20.896050.1414216.33600.0000
  30.864500.1414216.11290.0000
  41.000000.1414217.07110.0000
  51.000000.1414217.07110.0000
  整体0.949650.07140113.30020.0000
Eric10.830600.1414215.87330.0000
  20.840000.1414215.93970.0000
  30.702380.1414214.96660.0000
  40.702380.1414214.96660.0000
  51.000000.1414217.07110.0000
  整体0.823540.07159111.50340.0000
Mike11.000000.1414217.07110.0000
  20.830600.1414215.87330.0000
  30.819170.1414215.79240.0000
  40.864500.1414216.11290.0000
  50.864500.1414216.11290.0000
  整体0.874720.07094512.32950.0000

Kendall 的一致性系数

检验员系数卡方自由度P
Amanda1.0000098.0000490.0000
Britt0.9944897.4587490.0000
Eric0.9844696.4769490.0001
Mike0.9870096.7256490.0001
重要结果:Kappa、Kendall 的一致性系数

多个 kappa 值为 1,表示评估员自身对多次试验的评级完全一致。Eric 的部分 kappa 值接近 0.70。您可能需要研究 Eric 对这些样本的评级为何不一致。由于这些数据是顺序响应,因此 Minitab 会提供 Kendall 的一致性系数值。这些值全都大于 0.98,表示评估员自身评级的关联度很高。

第 3 步:评估每位评估员的响应的正确性

要确定每位评估员评级的正确性,请评估“每位评估员与标准”表格中的 kappa 统计数据。如果是顺序评级,您还应评估 Kendall 的相关系数。Minitab 会在您指定每个样本的参考值时显示“每位评估员与标准表格”。

当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。

Kappa 值的范围为 –1 到 +1。kappa 值越高,一致性就越高,如下所示:
  • Kappa = 1 时,表明完全一致。
  • Kappa = 0 时,则一致性与偶然预期的相同。
  • Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。

评估一致性

检验员# 检验数# 相符数百分比95% 置信区间
Amanda504794.00(83.45, 98.75)
Britt504692.00(80.77, 97.78)
Eric504182.00(68.56, 91.42)
Mike504590.00(78.19, 96.67)
# 相符数: 检验员在多次试验中的评估与已知标准一致。

Fleiss 的 Kappa 统计量

检验员响应KappaKappa 标准误ZP(与 > 0)
Amanda11.000000.10000010.00000.0000
  20.830600.1000008.30600.0000
  30.819170.1000008.19170.0000
  41.000000.10000010.00000.0000
  51.000000.10000010.00000.0000
  整体0.924760.05025718.40060.0000
Britt11.000000.10000010.00000.0000
  20.838380.1000008.38380.0000
  30.807250.1000008.07250.0000
  41.000000.10000010.00000.0000
  51.000000.10000010.00000.0000
  整体0.924620.05039618.34730.0000
Eric10.911590.1000009.11590.0000
  20.810350.1000008.10350.0000
  30.726190.1000007.26190.0000
  40.849190.1000008.49190.0000
  51.000000.10000010.00000.0000
  整体0.861630.05050017.06220.0000
Mike11.000000.10000010.00000.0000
  20.916940.1000009.16940.0000
  30.907360.1000009.07360.0000
  40.929130.1000009.29130.0000
  50.935020.1000009.35020.0000
  整体0.937320.05021118.66740.0000

Kendall 的相关系数

检验员系数系数标准误ZP
Amanda0.9673860.069006614.01280.0000
Britt0.9678350.069006614.01930.0000
Eric0.9518630.069006613.78790.0000
Mike0.9751680.069006614.12560.0000
重要结果:Kappa、Kendall 的相关系数

大部分 kappa 值大于 0.80,表示每位评估员与标准之间的一致性良好。少数 kappa 值接近 0.70,表示您可能需要进一步研究某些样本或某些评估员。由于这些数据是顺序响应,因此 Minitab 会提供 Kendall 的相关系数。这些值的范围为 0.951863 到 0.975168,这表示评级和标准值之间的关联度很高。

第 4 步:评估评估员之间的响应的一致性

要确定评估员评级之间的一致性,请评估“评估员之间”表格中的 kappa 统计数据。如果是顺序评级,您还应评估 Kendall 的一致性系数。

当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。

Kappa 值的范围为 –1 到 +1。kappa 值越高,一致性就越高,如下所示:
  • Kappa = 1 时,表明完全一致。
  • Kappa = 0 时,则一致性与偶然预期的相同。
  • Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。

注意

切记,“评估员之间”表格可表示评估员的评级是否一致,但无法表示评级是否与参考值一致。一致的评级不一定是正确的评级。

评估一致性

# 检验数# 相符数百分比95% 置信区间
503774.00(59.66, 85.37)
# 相符数: 所有检验员的评估一致。

Fleiss 的 Kappa 统计量

响应KappaKappa 标准误ZP(与 > 0)
10.9543920.026726135.71010.0000
20.8276940.026726130.96950.0000
30.7725410.026726128.90580.0000
40.8911270.026726133.34290.0000
50.9681480.026726136.22480.0000
整体0.8817050.013436265.62180.0000

Kendall 的一致性系数

系数卡方自由度P
0.976681382.859490.0000
重要结果:Kappa、Kendall 的一致性系数

所有 kappa 值都大于 0.77,表示评估员之间的一致性接受程度最低。评估员对样本 1 和 5 的评估一致性最高,样本 3 的一致性最低。由于这些数据是顺序响应,因此 Minitab 会提供 Kendall 一致性系数 (0.976681),这表示评估员评级之间的关联度很高。

第 5 步:评估所有评估员的响应的正确性

要确定所有评估员评级的正确性,请评估“所有评估员与标准”表格中的 kappa 统计数据。如果是顺序评级,您还应评估 Kendall 的一致性系数。

当多位评估员评估相同的样本时,可使用 kappa 统计数据评估由多位评估员给出的名义或顺序评级的一致程度。

Kappa 值的范围为 –1 到 +1。kappa 值越高,一致性就越高,如下所示:
  • Kappa = 1 时,表明完全一致。
  • Kappa = 0 时,则一致性与偶然预期的相同。
  • Kappa < 0 时,一致性比偶然预期的还要弱,不过这种情况很少发生。

AIAG 建议,kappa 最小值为 0.75 时表示一致性良好。但是 kappa 值越大越好,例如 0.90。

当进行顺序评级时(比如按 1 到 5 个等级对缺陷严重性进行评定),可说明排序因素的 Kendall 系数通常比单独使用 kappa 更适合用来确定关联度。

评估一致性

# 检验数# 相符数百分比95% 置信区间
503774.00(59.66, 85.37)
# 相符数: 所有检验员的评估与已知的标准一致。

Fleiss 的 Kappa 统计量

响应KappaKappa 标准误ZP(与 > 0)
10.9778970.050000019.55790.0000
20.8490680.050000016.98140.0000
30.8149920.050000016.29980.0000
40.9445800.050000018.89160.0000
50.9837560.050000019.67510.0000
整体0.9120820.025170536.23620.0000

Kendall 的相关系数

系数系数标准误ZP
0.9655630.034503327.98170.0000
重要结果:Kappa、Kendall 的一致性系数

这些结果显示,所有评估员对 50 个样本中的 37 个的标准评级是正确匹配的。整体的 kappa 值为 0.912082,表示标准值的一致性很强。由于这些数据是顺序响应,因此 Minitab 会提供 Kendall 的一致性系数 (0.965563),这表示评级和标准值之间的关联度很高。