Cette commande est disponible avec le Module d'analyse prédictive. Cliquez ici pour plus d'informations sur l'activation du module.
Utilisez les résultats pour comparer la façon dont les modèles fonctionnent avec différentes valeurs des hyperparamètres. Cliquez sur Régler les hyperparamètres pour évaluer les valeurs supplémentaires des hyperparamètres.
Le nombre optimal d’arbres est habituellement différent à chaque étape. Lorsque le nombre optimal est proche du nombre maximal d’arbres pour l’analyse, le modèle est plus susceptible de s’améliorer si vous augmentez le nombre d’arbres qu’un modèle avec un nombre optimal d’arbres loin du maximum. Vous pouvez vous demander s’il est possible d’explorer davantage un modèle alternatif qui semble susceptible de s’améliorer.
La moyenne du log négatif de vraisemblance est une mesure de la précision du modèle. Des valeurs plus petites indiquent un meilleur ajustement.
Lorsque la réponse est binaire, vous pouvez utiliser le log de vraisemblance maximal comme critère pour la sélection du meilleur modèle. Les résultats complets qui suivent le tableau sont pour le modèle ayant la plus petite valeur de la moyenne du log négatif de vraisemblance.
La courbe ROC représente le taux de vrais positifs (TPR), également appelé puissance, sur l'axe Y. La courbe ROC représente le taux de faux positifs (FPR), également appelé erreur de type 1, sur l'axe X. L'aire sous une courbe ROC indique si le modèle est un bon classificateur.
Pour les arbres de classification, l'aire sous les valeurs de la courbe ROC varie généralement de 0,5 à 1. Plus les valeurs sont élevées, meilleure est la classification du modèle. Lorsque le modèle peut parfaitement séparer les classes, l'aire sous la courbe est de 1. Lorsque le modèle ne peut pas séparer les classes plus efficacement qu'une affectation aléatoire, l'aire sous la courbe est de 0,5.
Lorsque vous utilisez l'aire maximale sous la courbe ROC comme critère de sélection du meilleur modèle, le tableau inclut l'aire sous la courbe ROC pour chaque modèle. Les résultats complets qui suivent le tableau sont pour le modèle ayant la plus grande aire sous la courbe ROC.
Le taux de mauvais classement indique la fréquence à laquelle le modèle classe correctement les valeurs de réponse. Des valeurs plus petites indiquent de meilleures performances.
Lorsque vous utilisez le taux minimal de mauvais classement comme critère de sélection du meilleur modèle, le tableau inclut le taux de mauvais classement pour chaque modèle. Les résultats complets qui suivent le tableau sont pour le modèle ayant le taux de mauvais classement le plus bas.
Les taux d'apprentissage faibles pondèrent moins chaque nouvel arbre dans le modèle que des taux d'apprentissage plus élevés et génèrent parfois plus d'arbres pour le modèle. Un modèle présentant un taux d'apprentissage faible est moins susceptible d'être surajusté pour l'ensemble de données d'apprentissage. Les modèles à faible taux d’apprentissage utilisent généralement plus d’arbres pour trouver le nombre optimal d’arbres.
La fraction de sous-échantillon est la proportion des données que l'analyse utilise pour créer chaque arbre.
La fonction Classification TreeNet® combine un grand nombre de petits arbres CART® dans un modèle puissant. Le tableau inclut l'hyperparamètre qui se trouve dans l’analyse, soit le nombre maximal de nœuds terminaux par arbre, soit la profondeur maximale de l’arbre. Les arbres avec plus de nœuds terminaux peuvent modéliser des interactions plus complexes. En général, les valeurs supérieures à 12 pourraient ralentir l’analyse sans grand avantage pour le modèle.
La fonction Classification TreeNet® combine un grand nombre de petits arbres CART® dans un modèle puissant. Vous pouvez spécifier le nombre maximal de nœuds terminaux ou la profondeur maximale de l'arbre pour ces petits arbres CART®. Les arbres plus profonds peuvent modéliser des interactions plus complexes. Les valeurs de 4 à 6 sont suffisantes pour de nombreux ensembles de données.