Matrice de confusion pour Classification CART®

Trouvez des définitions et des interprétations pour chaque statistique dans la matrice de confusion.
La matrice de confusion montre la capacité de l’arbre à séparer correctement les classes en utilisant ces mesures :
  • Taux de vrais positifs (TPR) — probabilité qu'un cas d’événement soit prédit correctement
  • Taux de faux positifs (FPR) — probabilité qu’un cas de non-événement soit prédit de façon incorrecte
  • Taux de faux négatifs (FNR) — probabilité qu’un cas d’événement soit prédit de façon incorrecte
  • Taux de vrais négatifs (TNR) — probabilité qu’un cas de non-événement soit prédit correctement

Interprétation

Matrice de confusion



Classe prévue
(apprentissage)





Classe prévue (test)
Classe réelleDénombrementOuiNon% correctOuiNon% correct
Oui (Événement)1391172284,21053475,5
Non1642214286,62414085,4
Total30313916485,512917480,9
StatistiquesApprentissage
(%)
Test (%)
Taux de vrai positif (sensibilité ou puissance)84,275,5
Taux de faux positif (erreur de type I)13,414,6
Taux de faux négatif (erreur de type II)15,824,5
Taux de vrai négatif (spécificité)86,685,4

Dans cet exemple, le nombre total d’événements Oui est de 139, et le nombre total d’événements Non est de 164.
  • Dans les données d'apprentissage, le nombre d’événements Oui prévus est de 117, ce qui est correct à 84,2 %.
  • Dans les données d'apprentissage, le nombre d’événements Non prévus est de 142, ce qui est correct à 86,6 %.
  • Dans les données de test, le nombre d’événements Oui prévus est de 105, ce qui est correct à 75,5 %.
  • Dans les données de test, le nombre d’événements Non prévus est de 140, ce qui est correct à 80,9 %.
Le pourcentage d’exactitude est en moyenne de 85,5 % pour les données d'apprentissage et de 80,9 % pour les données de test.
  • Taux de vrais positifs (TPR) — 84,2 % pour les données d'apprentissage et 75,5 % pour les données de test.
  • Taux de faux positifs (FPR) — 13,4 % pour les données d'apprentissage et 14,6 % pour les données de test.