Exécutez Régler les hyperparamètres dans les résultats. . Cliquez sur
Les performances des modèles TreeNet® sont généralement sensibles aux valeurs du taux d’apprentissage, de la fraction du sous-échantillon et de la complexité des arbres individuels qui forment le modèle. Dans les résultats d’un modèle, cliquez sur Régler les hyperparamètres pour évaluer plusieurs valeurs de ces hyperparamètres et savoir quelle combinaison produit les meilleures valeurs d’un critère de précision, comme la valeur R2 maximale. De meilleures valeurs de ces hyperparamètres ont le potentiel d’améliorer considérablement la précision des prédictions, de sorte que l’exploration de différentes valeurs est une étape courante dans l’analyse.
Vous pouvez également ajuster le nombre d’arbres inclut dans le modèle. En général, 300 arbres suffisent à distinguer les valeurs des hyperparamètres. En général, vous augmentez le nombre d’arbres lorsque le nombre optimal d’arbres pour un ou plusieurs modèles d’intérêt est proche du nombre maximal d’arbres. Si le nombre d’arbres est plus proche du nombre maximal, une augmentation du nombre d’arbres est plus susceptible d’améliorer les performances du modèle.
Spécifiez une ou plusieurs valeurs pour chaque hyperparamètre à évaluer. L’analyse évalue les hyperparamètres pour trouver la combinaison ayant la meilleure valeur du critère de précision. Si vous n'entrez aucune valeur pour un hyperparamètre, l’évaluation utilise la valeur de cet hyperparamètre provenant du modèle dans les résultats. Si la réponse est binaire et que le modèle original spécifie la proportion d’événements et de non-événements à échantillonner, l’évaluation utilise toujours les proportions du modèle original.
Entrez jusqu'à 10 valeurs. Les valeurs éligibles vont de 0,0001 à 1. Sauf si vous sélectionnez Évaluer les combinaisons complètes de paramètres, l’évaluation du taux d’apprentissage est la première. Si elle se produit d’abord, l’évaluation du taux d’apprentissage utilise la plus petite valeur du taux d’apprentissage et de la fraction du sous-échantillon.
Entrez jusqu'à 10 valeurs. Les valeurs éligibles sont supérieures à 0 et inférieures ou égales à 1. Sauf si vous sélectionnez Évaluer les combinaisons complètes de paramètres, l’évaluation du sous-échantillon est la deuxième. Si elle se produit en deuxième, l’évaluation de la fraction de sous-échantillon utilise la meilleure valeur trouvée par l’analyse pour le taux d’apprentissage et la plus petite valeur de la fraction sous-échantillon.
Fraction de sous-échantillon est désactivé lorsque le modèle d’origine spécifie la proportion d’événements et de non-événements à échantillonner pour une réponse binaire.
Saisissez une valeur entre 1 et 5 000 pour définir le nombre maximal d'arbres à créer. La valeur par défaut de 300 fournit généralement des résultats utiles pour l’évaluation des valeurs des hyperparamètres.
Si un ou plusieurs modèles d’intérêt ont un certain nombre d’arbres proches du nombre d’arbres que vous spécifiez, alors envisagez d'augmenter le nombre d’arbres. Si le nombre d’arbres est plus proche du nombre maximal, une augmentation du nombre d’arbres est plus susceptible d’améliorer les performances du modèle.
Dans cet exemple, l’analyse qui n’évalue pas l’ensemble complet des combinaisons de paramètres comprend 8 modèles dans le tableau d’évaluation. Une analyse de toutes les combinaisons de paramètres a 3 × 3 × 2 = 18 combinaisons et prend plus de temps à calculer.
Après avoir spécifié les valeurs à examiner, cliquez sur Afficher les résultats. Dans un nouvel ensemble de résultats, Minitab produit un tableau qui compare le critère de précision pour les combinaisons d’hyperparamètres et les résultats pour le modèle avec la meilleure valeur du critère de précision.
Minitab recrée les mêmes tableaux et graphiques pour le nouveau modèle que pour le modèle original. Les tableaux et les graphiques du nouveau modèle sont dans un nouvel ensemble de résultats. La notation est la même que dans les sections précédente. Les colonnes normalisées se trouvent dans la feuille de travail. Si par exemple l’analyse originale stockait les valeurs ajustées dans une colonne intitulée "Fit", la nouvelle analyse titre une colonne vide "Fit_1" pour y stocker les valeurs ajustées.