Exemple de Régression Random Forests®

Remarque

Cette commande est disponible avec le Module d'analyse prédictive. Cliquez ici pour plus d'informations sur l'activation du module.

Une équipe de chercheurs recueille des données sur la vente de propriétés résidentielles individuelles à Ames, iowa. Les chercheurs veulent identifier les variables qui influent sur le prix de vente. Les variables incluent la surface du terrain et diverses caractéristiques de la propriété résidentielle.

Après une première exploration à l'aide de Régression CART® pour identifier les prédicteurs importants, l'équipe utilise Régression Random Forests® pour créer un modèle plus avancés à partir du même ensemble de données. L'équipe compare le tableau récapitulatif du modèle et la courbe R2 dans les résultats pour évaluer quel modèle fournit un meilleur résultat de prédiction.

Ces données ont été adaptées à partir d'un ensemble de données public contenant des informations sur les données sur le logement d'Ames. Données originales de DeCock, Truman State University.

  1. Ouvrez l’exemple de données Ames_logement.MTW.
  2. Sélectionnez Module d'analyse prédictive > Régression Random Forests®.
  3. Dans la zone Réponse, saisissez ‘prix de vente’.
  4. Dans Prédicteurs continus, entrez ‘façade de lot' – ‘année vendue’.
  5. Dans Prédicteurs de catégorie, entrez ‘type' – ‘condition de vente’.
  6. Cliquez sur Options.
  7. Sous Nombre de prédicteurs pour la partition des nœuds, sélectionnez K pour cent du nombre total de prédicteurs ; K = et saisissez 30. Les chercheurs veulent utiliser plus que le nombre par défaut de prédicteurs pour cette analyse.
  8. Cliquez sur OK dans chaque boîte de dialogue

Interpréter des résultats

Pour cette analyse, le nombre d'observations est de 2930. Chacun des 300 échantillons bootstrap sélectionne aléatoirement 2930 observations avec remplacement pour créer un arbre. La méthode utilise également 30% du nombre total de prédicteurs pour diviser les nœuds. De plus, le tableau d’informations de réponse montre des statistiques descriptives courantes pour les observations.

Random Forests® Regression: Sale Price vs Lot Frontage, Lot Area, ...

Method Model validation Validation with out-of-bag data Number of bootstrap samples 300 Sample size Same as training data size of 2930 Number of predictors selected for node splitting 30% of the total number of predictors = 23 Minimum internal node size 5 Rows used 2930
Response Information Mean StDev Minimum Q1 Median Q3 Maximum 180796 79886.7 12789 129500 160000 213500 755000

Le diagramme du R carré par rapport au nombre d'arbres montre toute la courbe sur le nombre d'arbres développés. La valeur de R2 augmente rapidement à mesure que le nombre d’arbres augmente, puis s’aplatit à environ 91%.

Random Forests® Regression: Sale Price vs Lot Frontage, Lot Area, ...

Model Summary Total predictors 77 Important predictors 68 Statistics Out-of-Bag R-squared 90.90% Root mean squared error (RMSE) 24097.3281 Mean squared error (MSE) 580681222.4890 Mean absolute deviation (MAD) 14746.8323 Mean absolute percent error (MAPE) 0.0895

Le tableau récapitulatif du modèle montre que les valeurs R2 sont légèrement améliorées par rapport aux valeurs R2 de l'analyse CART® correspondante.

La courbe d'importance relative des variables trace les prédicteurs dans l'ordre de leur effet sur l'amélioration du modèle lorsqu'un prédicteur est divisé sur la séquence des arbres. La variable de prédiction la plus importante pour prédire le prix de vente est la qualité. Si l’importance de la variable prédictive supérieure, la qualité, est de 100%, alors la variable importante suivante, zone de vie, a une contribution de 88,8%. Cela signifie que la superficie en pieds carrés de la vie est 88,8% aussi importante que la qualité globale de la propriété. La deuxième variable la plus importante est le voisinage, qui a une contribution de 52,6%.

Le nuage de points du prix de vente ajusté en fonction du prix de vente réel montre la relation entre les valeurs ajustées et réelles pour les données out-of-bag. Pour identifier plus facilement les valeurs représentées, survolez les points du graphique. Dans cet exemple, de nombreux points se situent approximativement près de la ligne de référence de y=x, mais plusieurs points peuvent nécessiter une enquête pour voir des écarts entre les valeurs ajustées et réelles.