Nombre total de prédicteurs | 77 |
---|---|
Prédicteurs importants | 10 |
Nombre maximal de fonctions de base | 30 |
Nombre optimal de fonctions de base | 13 |
Statistiques | Apprentissage | Test |
---|---|---|
R carré | 89,61% | 87,61% |
Racine de l'erreur quadratique moyenne (RMSE) | 25836,5197 | 27855,6550 |
Erreur quadratique moyenne (MSE) | 667525749,7185 | 775937512,8264 |
Ecart absolu moyen (MAD) | 17506,0038 | 17783,5549 |
Dans ces résultats, le test R-carré est d’environ 88%. L’erreur quadratique moyenne de la racine de test est d’environ 27 856. L’erreur quadratique moyenne du test est d’environ 775 937 513. L’écart absolu moyen du test est d’environ 17 784.
Utilisez le graphique d’importance relative des variables pour voir quels prédicteurs sont les variables les plus importantes pour le modèle.
Les variables importantes sont dans au moins 1 fonction de base dans le modèle. La variable avec le score d'amélioration le plus élevé est la variable la plus importante et les autres variables sont classées en conséquence. L'importance relative des variables normalise les valeurs d'importance pour faciliter l'interprétation. L'importance relative se définit comme l'amélioration en pourcentage par rapport au prédicteur le plus important.
Les valeurs d’importance relative des variables varient de 0 % à 100 %. La variable la plus importante a toujours une importance relative de 100%. Si une variable n’est pas dans une fonction de base, cette variable n’est pas importante.
Utilisez les diagrammes de dépendance partielle, les fonctions de base et les coefficients de l’équation de régression pour déterminer l’effet des prédicteurs. Les effets des prédicteurs expliquent la relation entre les prédicteurs et la réponse. Considérez toutes les fonctions de base d’un prédicteur pour comprendre l’effet du prédicteur sur la variable de réponse.
En outre, tenez compte de l’utilisation des prédicteurs importants et des formes de leurs relations lorsque vous construisez d’autres modèles. Par exemple, si le modèle de régression MARS® inclut des interactions, déterminez s’il faut inclure ces interactions dans un modèle de régression des moindres carrés pour comparer les performances des deux types de modèles. Dans les applications où vous contrôlez les prédicteurs, les effets fournissent un moyen naturel d’optimiser les paramètres pour atteindre un objectif pour la variable de réponse.
Dans un modèle additif, des diagrammes de dépendance partielle à un prédicteur montrent comment les prédicteurs continus importants affectent la réponse prédite. Le diagramme de dépendance partielle à un prédicteur indique comment la réponse est censée changer avec les modifications apportées aux niveaux des prédicteurs. Pour Régression MARS®, les valeurs du tracé proviennent des fonctions de base du prédicteur sur l’axe des abscisses. La contribution sur l’axe des y est normalisée de sorte que la valeur minimale sur la parcelle soit 0.
Pour plus d’exemples de fonctions de base courantes, reportez-vous à Équation de régression pour Régression MARS®la section .