prob=flipud([1:keep]'
同时,我们也简单证明了boosting集成就不会遇到这样的问题,因为每一个基学习器都要针对上一轮学习器的结果进行优化,Adaboost的分类版本会更关注分类错误的样本,Gradient Boosting的回归版本会去继续优化Loss的负梯度。首先我们使用Adaboost适应IRIS数据,以决策树作为基学习器,我们在上一节的代码篇中得到了决策树的叶节点...