总预测变量 | 77 |
---|---|
重要预测变量 | 10 |
基函数的最大数量 | 30 |
基函数的最优数量 | 13 |
统计量 | 训练 | 测试 |
---|---|---|
R 平方 | 89.61% | 87.61% |
均方根误差 (RMSE) | 25836.5197 | 27855.6550 |
均方误差 (MSE) | 667525749.7185 | 775937512.8264 |
平均绝对偏差 (MAD) | 17506.0038 | 17783.5549 |
在这些结果中,检验 R 平方约为 88%。检验均方根误差约为 27,856。检验均方误差约为 775,937,513。检验平均绝对偏差约为 17,784。
使用相对变量重要性图表可以查看哪些预测变量是模型最重要的变量。
重要变量在模型中至少位于 1 个基函数中。改进得分最高的变量设置为最重要的变量,其他变量依次排序。相对变量重要性将重要性值标准化,以便于解释。相对重要性定义为相对于最重要预测变量的改进百分比。
相对变量重要性值的范围为 0% 到 100%。最重要的变量始终具有 100% 的相对重要性。如果变量不在基函数中,则该变量不重要。
使用回归方程中的部分依赖图、基函数和系数来确定预测变量的效应。预测变量的效应解释了预测变量和响应变量之间的关系。考虑预测变量的所有基函数,以了解预测变量对响应变量的影响。
此外,在构建其他模型时,请考虑重要预测变量的使用及其关系形式。例如,如果 MARS® 回归模型包括交互作用,请考虑是否将这些交互作用包含在最小二乘回归模型中,以比较两种类型的模型的性能。在控制预测变量的应用程序中,效应提供了一种自然的方式来优化设置以实现响应变量的目标。
在加性模型中,单预测变量部分依赖图显示重要的连续预测变量如何影响预测响应。一个预测变量偏相关性图指示预期响应如何随预测变量水平的变化而变化。对于 MARS® 回归,图上的值来自 x 轴上预测变量的基础函数。y 轴上的贡献是标准化的,因此图上的最小值为 0。
有关常见基函数的更多示例,请转到 的回归方程 MARS® 回归。