Niveau de catégories dans les données. Par exemple, si les évaluateurs utilisent une échelle de 1 à 5, les réponses sont 1–5.
Le kappa est le rapport entre la proportion de concordances des évaluateurs (corrigée dans le cas d'une concordance due au hasard) et la proportion maximale possible de concordances des évaluateurs (corrigée dans le cas d'une concordance due au hasard).
Utilisez les statistiques kappa pour évaluer le degré de concordance des notations nominales ou ordinales réalisées par plusieurs évaluateurs lors de l'analyse des mêmes échantillons.
Minitab peut calculer à la fois le kappa de Fleiss et le kappa de Cohen. Le kappa de Cohen est une statistique populaire de mesure de la concordance d'évaluation entre 2 évaluateurs. Le kappa de Fleiss est une généralisation du kappa de Cohen pour plus de 2 évaluateurs. Dans Analyse de concordance, Minitab calcule le kappa de Fleiss par défaut.
Selon la méthode AIAG, une valeur de kappa d'au moins 0,75 indique une concordance correcte. Toutefois, des valeurs plus élevées, comme 0,90, sont privilégiées.
Lorsque vous utilisez des notations ordinales, telles que les notations de la gravité d'un défaut sur une échelle allant de 1 à 5, les coefficients de Kendall, qui tiennent compte de l'ordre, constituent généralement des statistiques plus adaptées que la valeur du kappa seule pour déterminer l'association.
Pour plus d'informations, reportez-vous à la rubrique Statistiques Kappa et coefficients de Kendall.
L'erreur type pour une statistique kappa estimée mesure la précision de l'estimation. Plus l'erreur type est petite, plus l'estimation est précise.
Z est la valeur de Z, qui représente la statistique de test normal approximative. Minitab utilise la valeur de Z pour déterminer la valeur de p.
La valeur de p est une probabilité qui mesure les preuves par rapport à l'hypothèse nulle. Les valeurs de p inférieures fournissent des preuves plus solides par rapport à l'hypothèse nulle.
Minitab utilise la valeur de Z pour déterminer la valeur de p.