Exemple de Ajuster le modèle avec Classification TreeNet®

Remarque

Cette commande est disponible avec la commande Module d'analyse prédictive. Cliquez ici pour plus d’informations sur la façon d’activer le module.

Une équipe de chercheurs recueille et publie des informations détaillées sur les facteurs qui affectent les maladies cardiaques. Les variables comprennent l’âge, le sexe, le taux de cholestérol, la fréquence cardiaque maximale, etc. Cet exemple est basé sur un ensemble de données publiques qui fournit des informations détaillées sur les maladies cardiaques. Les données originales proviennent de archive.ics.uci.edu.

Après une exploration initiale pour Classification CART® identifier les prédicteurs importants, les chercheurs utilisent les deux Classification TreeNet® et Classification Random Forests® pour créer des modèles plus intensifs à partir du même ensemble de données. Les chercheurs comparent le tableau récapitulatif du modèle et le graphique ROC à partir des résultats pour évaluer quel modèle fournit un meilleur résultat de prédiction. Pour obtenir les résultats des autres analyses, reportez-vous sur Exemple de Classification Random Forests® et Exemple de Classification CART®.

  1. Ouvrez les données d’échantillonnage, MaladieCardiaqueBinaire.MTW.
  2. Choisissez Module d'analyse prédictive > Classification TreeNet® > Ajuster le modèle.
  3. Dans la liste déroulante, sélectionnez Réponse binaire.
  4. Dans Réponse, entrez Maladies cardiaques.
  5. Dans Evénement de réponse, sélectionnez Oui pour indiquer qu’une maladie cardiaque a été identifiée chez le patient.
  6. Dans Prédicteurs continus, entrez Âge, Pression artérielle de repos, Cholestérol, Fréquence cardiaque maximale et Vieux pic.
  7. Dans Prédicteurs de catégorie, entrez Sexe, Type de douleur thoracique, Sucre de sang de jeûne, Repos ECG, Exercice Angina, Pente, Principaux navires, et Thal.
  8. Cliquez sur OK.

Interpréter les résultats

Pour cette analyse, Minitab cultive 300 arbres et le nombre optimal d’arbres est de 298. Étant donné que le nombre optimal d’arbres est proche du nombre maximal d’arbres que le modèle cultive, les chercheurs répètent l’analyse avec plus d’arbres.

Récapitulatif du modèle

Nombre total de prédicteurs13
Prédicteurs importants13
Nombre d'arbres développés300
Nombre optimal d'arbres298
StatistiquesApprentissageTest
Log de vraisemblance de moyenne0,25560,3881
Zone située sous la courbe ROC0,97960,9089
        IC à 95 %(0,9664; 0,9929)(0,8759; 0,9419)
Lift2,17992,1087
Taux de mauvaise classification0,08910,1617

Exemple avec 500 arbres

  1. Sélectionnez Régler les hyperparamètres dans les résultats.
  2. Dans Nombre d'arbres, entrez 500.
  3. Cliquez sur Afficher les résultats.

Interpréter les résultats

Pour cette analyse, il y avait 500 arbres cultivés et le nombre optimal d’arbres est de 351. Le meilleur modèle utilise un taux d’apprentissage de 0,01, utilise une fraction de sous-échantillon de 0,5 et utilise 6 comme nombre maximal de nœuds terminaux.

Méthode

Critères de sélection du nombre d'arbres optimalLog de vraisemblance maximale
Validation de modèleValidation croisée pour 5 ensemble(s)
Taux d'apprentissage0,01
Méthode de sélection de sous-échantillonComplètement aléatoire
    Fraction de sous-échantillon0,5
Nombre maximal de nœuds terminaux par arbre6
Taille minimale du nœud terminal3
Nombre de prédicteurs sélectionnés pour la partition des nœudsNombre total de prédicteurs = 13
Lignes utilisées303

Informations de réponse binaire

VariableClasseDénombrement%
Maladies cardiaquesOui (Événement)13945,87
  Non16454,13
  Tous303100,00
Classification TreeNet® avec réglage des hyperparamètres : Maladies cardiaques vs Âge; Pression artérielle de repos; Cholestérol; Fréquence cardiaque maximale; Vieux pic; Sexe; Type de douleur thoracique; Sucre de sang de jeûne; Repos ECG; Exercice Angina; Pente; Principaux navires; Thal

Méthode

Critères de sélection du nombre d'arbres optimalLog de vraisemblance maximale
Validation de modèleValidation croisée pour 5 ensemble(s)
Taux d'apprentissage0,001; 0,01; 0,1
Fraction de sous-échantillon0,5; 0,7
Nombre maximal de nœuds terminaux par arbre6
Taille minimale du nœud terminal3
Nombre de prédicteurs sélectionnés pour la partition des nœudsNombre total de prédicteurs = 13
Lignes utilisées303

Informations de réponse binaire

VariableClasseDénombrement%
Maladies cardiaquesOui (Événement)13945,87
  Non16454,13
  Tous303100,00

Optimisation des hyperparamètres

Test
ModèleNombre
optimal
d'arbres
Log de
vraisemblance
de moyenne
Zone située
sous la
courbe ROC
Taux de
classification
erronée
Taux
d'apprentissage
15000,5429020,9029560,1717490,001
2*3510,3865360,9089200,1750270,010
3330,3965550,9007820,1616940,100
45000,5432920,8941780,1781420,001
53740,3896070,9066200,1650820,010
6390,3933820,9013990,1749730,100
ModèleFraction de
sous-échantillon
Nombre
maximal de
nœuds
terminaux
10,56
2*0,56
30,56
40,76
50,76
60,76
* Le modèle optimal présente un log de vraisemblance de moyenne minimal. Les résultats du
     modèle optimal sont affichés ci-après.

Le graphique Moyenne –Logvraisemblance en fonction du nombre d’arbres montre la courbe entière sur le nombre d’arbres cultivés. La valeur optimale pour les données de test est de 0,3865 lorsque le nombre d’arbres est de 351.

Récapitulatif du modèle

Nombre total de prédicteurs13
Prédicteurs importants13
Nombre d'arbres développés500
Nombre optimal d'arbres351
StatistiquesApprentissageTest
Log de vraisemblance de moyenne0,23410,3865
Zone située sous la courbe ROC0,98250,9089
        IC à 95 %(0,9706; 0,9945)(0,8757; 0,9421)
Lift2,17992,1087
Taux de mauvaise classification0,07590,1750

Récapitulatif du modèle

Nombre total de prédicteurs13
Prédicteurs importants13
StatistiquesOut-of-Bag
Log de vraisemblance de moyenne0,4004
Zone située sous la courbe ROC0,9028
        IC à 95 %(0,8693; 0,9363)
Lift2,1079
Taux de mauvaise classification0,1848

Le tableau récapitulatif du modèle montre que le logarithme de vraisemblance négatif moyen lorsque le nombre d’arbres est de 351 est d’environ 0,23 pour les données d’entraînement et d’environ 0,39 pour les données de test. Ces statistiques indiquent un modèle similaire à celui créé par Minitab Random Forests®. De plus, les taux d’erreurs de classification sont similaires.

Le graphique Importance relative des variables trace les prédicteurs dans l’ordre de leur effet sur l’amélioration du modèle lorsque des divisions sont effectuées sur un prédicteur au cours de la séquence d’arbres. La variable prédictive la plus importante est Thal. Si la contribution de la variable prédictive principale, Thal, est de 100 %, la variable importante suivante, Major Vessels, a une contribution de 97,8 %. Cela signifie que Major Ships est 97,8 % aussi important que Thal dans ce modèle de classification.

Matrice de confusion



Classe prévue
(apprentissage)





Classe prévue (test)
Classe réelleDénombrementOuiNon% correctOuiNon% correct
Oui (Événement)1391241589,211102979,14
Non164815695,122414085,37
Tous30313217192,4113416982,51
Attribuez une rangée à la classe d'événement si la probabilité d'événement pour la ligne
     dépasse 0,5.
     
StatistiquesApprentissage
(%)
Test (%)
Taux de vrai positif (sensibilité ou puissance)89,2179,14
Taux de faux positif (erreur de type I)4,8814,63
Taux de faux négatif (erreur de type II)10,7920,86
Taux de vrai négatif (spécificité)95,1285,37

La matrice de confusion montre dans quelle mesure le modèle sépare correctement les classes. Dans cet exemple, la probabilité qu’un événement soit prédit correctement est de 79,14 %. La probabilité qu’un non-événement soit prédit correctement est de 85,37 %.

Mauvais classement



ApprentissageTest
Classe réelleDénombrementMal classé% erreurMal classé% erreur
Oui (Événement)1391510,792920,86
Non16484,882414,63
Tous303237,595317,49
Attribuez une rangée à la classe d'événement si la probabilité d'événement pour la ligne
     dépasse 0,5.

Le taux d’erreurs de classification permet d’indiquer si le modèle prédira avec précision les nouvelles observations. Pour la prédiction d’événements, l’erreur de classification du test est de 20,86 %. Pour la prédiction des non-événements, l’erreur de classification erronée est de 14,63 % et pour l’ensemble, l’erreur de classification erronée est de 17,49 %.

L’aire sous la courbe ROC lorsque le nombre d’arbres est de 351 est d’environ 0,98 pour les données d’entraînement et d’environ 0,91 pour les données d’essai. Cela montre une belle amélioration par rapport au Classification CART® modèle. Le Classification Random Forests® modèle a un AUROC de test de 0,9028, donc ces 2 méthodes donnent des résultats similaires.

Dans cet exemple, le graphique de gain montre une forte augmentation au-dessus de la ligne de référence, puis un aplatissement. Dans ce cas, environ 40 % des données représentent environ 80 % des vrais positifs. Cette différence est le gain supplémentaire lié à l’utilisation du modèle.

Dans cet exemple, le graphique d’élévation montre une forte augmentation au-dessus de la ligne de référence qui diminue progressivement.

Utilisez les tracés de dépendances partielles pour obtenir des informations sur la façon dont les variables importantes ou les paires de variables affectent les valeurs de réponse ajustées. Les valeurs de réponse ajustées sont sur l’échelle 1/2 log. Les graphiques de dépendance partielle montrent si la relation entre la réponse et une variable est linéaire, monotone ou plus complexe.

Par exemple, dans le graphique de dépendance partielle du type de douleur thoracique, les cotes logarithmiques de 1/2 varient, puis augmentent fortement. Lorsque le type de douleur thoracique est de 4, la probabilité logarithmique de 1/2 d’incidence de maladie cardiaque augmente d’environ -0,04 à 0,03. Sélectionnez Graphiques à un prédicteur ou Graphiques à deux prédicteurs pour produire des tracés pour d’autres variables