学习模型

优点

缺点

线性回归

(Linear Regression)

易于理解和实现

计算简单且速度快

能够捕捉变量之间的线性关系

对非线性关系建模能力较差。

对异常值敏感

假设输入特征之间不相关(即不存在多重共线性)

决策树回归

(Decision Tree Regression)

能够捕捉非线性关系

对特征的选择和转换不敏感

容易理解和可视化

可能会过拟合

不稳定,不同的样本集可能导致 不同的树结构

对连续特征的处理可能不够精细。

梯度提升回归树

(Gradient Boosting Regression Trees)

能够处理复杂的非线性关系

通常比单个决策树具有更好的性能

对异常值和噪声的鲁棒性较好

计算成本较高

可能对超参数敏感

难以解释单个预测的来源

随机森林回归

(Random Forest Regression)

具有较高的预测性能

能够处理高维数据

对特征选择和转换不敏感

能够评估特征的重要性

计算成本较高

对于某些数据集可能会过拟合

模型较难解释