损失函数不同:AdaBoost使用指数损失函数,GradientBoosting使用任意可导的损失函数,如平方损失函数、指数损失函数、对数损失函数等。训练方式不同:AdaBoost每次迭代都会修改样本权重,增加错误分类样本的权重,减少正确分类样本的权重;GradientBoosting每次迭代都会训练一个新的弱分类器来拟合前一个弱分类器残差,即真实值与当前...