Matrice de confusion pour Ajuster le modèle et Découvrir les prédicteurs principaux avec Classification TreeNet®

Remarque

Cette commande est disponible avec le Module d'analyse prédictive. Cliquez ici pour plus d'informations sur l'activation du module.

Trouvez des définitions et des interprétations pour chaque statistique dans la matrice de confusion.
La matrice de confusion montre la capacité de l’arbre à séparer correctement les classes avec ces mesures :
  • Taux de vrais positifs (TPR) — probabilité qu'un cas d'événement soit prédit correctement
  • Taux de faux positifs (FPR) — probabilité qu’un cas de non-événement soit prédit de façon incorrecte
  • Taux de faux négatifs (FNR) — probabilité qu’un cas d’événement soit prédit de façon incorrecte
  • Taux de vrais négatifs (TNR) — probabilité qu’un cas de non-événement soit prédit correctement

Interprétation

Matrice de confusion



Classe prévue
(apprentissage)





Classe prévue (test)
Classe réelleDénombrementOuiNon% correctOuiNon% correct
Oui (Événement)1391241589,211102979,14
Non164815695,122414085,37
Tous30313217192,4113416982,51
Attribuez une rangée à la classe d'événement si la probabilité d'événement pour la ligne
     dépasse 0,5.
     
StatistiquesApprentissage
(%)
Test (%)
Taux de vrai positif (sensibilité ou puissance)89,2179,14
Taux de faux positif (erreur de type I)4,8814,63
Taux de faux négatif (erreur de type II)10,7920,86
Taux de vrai négatif (spécificité)95,1285,37

Dans cet exemple, le nombre total d'événements Oui est de 139, et le nombre total d'événements Non est de 164.
  • Dans les données d'apprentissage, le nombre d'événements prévus (Oui) est de 124, ce qui est correct à 89,21 %.
  • Dans les données d'apprentissage, le nombre de non-événements prévus (Non) est de 156, ce qui est correct à 95,12 %.
  • Dans les données de test, le nombre d'événements prévus (Oui) est de 110, ce qui est correct à 79,14 %.
  • Dans les données de test, le nombre de non-événements prévus (Non) est de 140, ce qui est correct à 85,37 %.
Le pourcentage d’exactitude est en moyenne de 92,41% pour les données d'apprentissage et de 82,51% pour les données de test. Utilisez les résultats des données de test pour évaluer l'exactitude de la prévision pour les nouvelles observations.

Un pourcentage d'exactitude avec une valeur faible est généralement dû à un modèle ajusté présentant une déficience, qui peut être causée par plusieurs raisons différentes. Si le pourcentage d'exactitude est très faible, déterminez si les pondérations de classe peuvent vous aider. Les pondérations de classe peuvent vous aider à obtenir un modèle plus précis lorsque les pondérations des observations d'une classe sont supérieures à celles d'une autre classe. Vous pouvez également modifier la probabilité lorsqu'un cas doit être classé comme événement.