Decision Tree是决策树,Gradient Descent是常用的梯度下降算法。 GBDT弱分类器默认选择的是CART TREE,当然也可以选择其他弱分类器,选择的前提是低方差、高偏差,框架服从Boosting框架即可。 sklearn模块中GBDT算法参数介绍 def __init__(self, loss='deviance', learning_rate=0.1, n_estimators=100, subsample=1.0, ...
我们在决策树和随机森林中都提到过,虽然均方误差永远为正,但是sklearn中的参数scoring下,均方误差作为评判标准时,却是计算”负均方误差“(neg_mean_squared_error)。这是因为sklearn在计算模型评估指标的时候,会考虑指标本身的性质,均方误差本身是一种误差,所以被sklearn划分为模型的一种损失(loss)。在sklearn当中,所...
输出结果: 5. 题外话 (其它模型:KNN\线性回归\DT\RF\Bagging(DT)\GBDT\Adaboost\Xgboost\Voting投票器) 5.1 包 from sklearn.neighbors import KNeighborsRegressor # K邻近模型from sklearn.linear_model import LinearRegression # 线性回归模型from sklearn.tree import DecisionTreeRegressor # 决策树模型from sk...