Matrice de confusion pour Classification CART®

Trouvez les définitions et les interprétations de chaque statistique dans la matrice de confusion.
La matrice de confusion montre dans quelle mesure l’arborescence sépare correctement les classes à l’aide de ces métriques :
  • Taux de vrais positifs (TPR) : la probabilité qu’un cas d’événement soit prédit correctement
  • Taux de faux positifs (FPR) : la probabilité qu’un cas non événementiel soit prédit de manière incorrecte
  • Taux de faux négatifs (FNR) : probabilité qu’un cas d’événement soit prédit de manière incorrecte
  • Taux vrai négatif (TNR) : probabilité qu’un cas non événementiel soit prédit correctement

Interprétation

Matrice de confusion



Classe prévue
(apprentissage)





Classe prévue (test)
Classe réelleDénombrementOuiNon% correctOuiNon% correct
Oui (Événement)1391172284,21053475,5
Non1642214286,62414085,4
Total30313916485,512917480,9
StatistiquesApprentissage
(%)
Test (%)
Taux de vrai positif (sensibilité ou puissance)84,275,5
Taux de faux positif (erreur de type I)13,414,6
Taux de faux négatif (erreur de type II)15,824,5
Taux de vrai négatif (spécificité)86,685,4

Dans cet exemple, le nombre total d’événements Oui est de 139 et le nombre total d’événements Non est de 164.
  • Dans les données d’entraînement, le nombre d’événements Oui prédits est de 117, ce qui est correct à 84,2 %.
  • Dans les données d’entraînement, le nombre d’événements No prédits est de 142, ce qui est correct à 86,6 %.
  • Dans les données de test, le nombre d’événements Oui prédits est de 105, ce qui est correct à 75,5 %.
  • Dans les données de test, le nombre d’événements No prédits est de 140, ce qui est correct à 80,9 %.
Dans l’ensemble, le % de correction pour les données d’entraînement est de 85,5 % et de 80,9 % pour les données de test.
  • Taux de vrais positifs (TPR) : 84,2 % pour les données d’entraînement et 75,5 % pour les données de test.
  • Taux de faux positifs (FPR) : 13,4 % pour les données d’entraînement et 14,6 % pour les données de test.