Trouvez des définitions et des interprétations pour chaque statistique dans la matrice de confusion.
La matrice de confusion montre la capacité de l’arbre à séparer correctement les classes avec ces mesures :
Taux de vrais positifs (TPR) — probabilité qu'un cas d'événement soit prédit correctement
Taux de faux positifs (FPR) — probabilité qu’un cas de non-événement soit prédit de façon incorrecte
Taux de faux négatifs (FNR) — probabilité qu’un cas d’événement soit prédit de façon incorrecte
Taux de vrais négatifs (TNR) — probabilité qu’un cas de non-événement soit prédit correctement
Interprétation
Un pourcentage d'exactitude avec une valeur faible est généralement dû à un modèle ajusté présentant une déficience, qui peut être causée par plusieurs raisons différentes. Si le pourcentage d'exactitude est très faible, déterminez si les pondérations de classe peuvent vous aider. Les pondérations de classe peuvent vous aider à obtenir un modèle plus précis lorsque les pondérations des observations d'une classe sont supérieures à celles d'une autre classe. Vous pouvez également modifier la probabilité lorsqu'un cas doit être classé comme événement.