学习模型 | 优点 | 缺点 |
线性回归 (Linear Regression) | 易于理解和实现 计算简单且速度快 能够捕捉变量之间的线性关系 | 对非线性关系建模能力较差。 对异常值敏感 假设输入特征之间不相关(即不存在多重共线性) |
决策树回归 (Decision Tree Regression) | 能够捕捉非线性关系 对特征的选择和转换不敏感 容易理解和可视化 | 可能会过拟合 不稳定,不同的样本集可能导致 不同的树结构 对连续特征的处理可能不够精细。 |
梯度提升回归树 (Gradient Boosting Regression Trees) | 能够处理复杂的非线性关系 通常比单个决策树具有更好的性能 对异常值和噪声的鲁棒性较好 | 计算成本较高 可能对超参数敏感 难以解释单个预测的来源 |
随机森林回归 (Random Forest Regression) | 具有较高的预测性能 能够处理高维数据 对特征选择和转换不敏感 能够评估特征的重要性 | 计算成本较高 对于某些数据集可能会过拟合 模型较难解释 |