CART(classification and regression tree)树:又称为分类回归树,从名字可以发现,CART树既可用于分类,也可以用于回归。 当数据集的因变量是离散值时,可以采用CART分类树进行拟合,用叶节点概率最大的类别作为该节点的预测类别。 当数据集的因变量是连续值时,可以采用CART回归树进行拟合,用叶节点的均值作为该节点预测值。
在回归问题中,我们通常使用MSE作为节点不纯度的度量。 3. 在grow_tree函数中,我们需要将predicted_class改为predicted_value,并将其计算方式改为计算目标值的平均值。 4. 在best_split函数中,我们需要将基尼指数的计算方式改为计算MSE。 5. 在CARTClassifier类中,我们需要将类名改为CARTRegressor,并将predict函数中...
(1)CART是一棵二叉树; (2)CART既能是分类树,又能是回归树,由目标任务决定; (3)当CART是分类树时,采用GINI值作为结点分裂的依据;当CART是回归树时,采用MSE(均方误差)作为结点分裂的依据; 2 分类树和回归树的区别? 针对分类任务,就是分类树;针对回归任务,就是回归树。 分类任务:预测目标是离散值,例如预测...
提到决策树算法,很多想到的就是上面提到的ID3、C4.5、CART分类决策树。其实决策树分为分类树和回归树,前者用于分类,如晴天/阴天/雨天、用户性别、邮件是否是垃圾邮件,后者用于预测实数值,如明天的温度、用户的年龄等。 作为对比,先说分类树,我们知道ID3、C4.5分类树在每次分枝时,是穷举每一个特征属性的每一个阈值...
(1)CART是一棵二叉树;(2)CART既能是分类树,又能是回归树,由目标任务决定;(3)当CART是分类树时,采用GINI值作为结点分裂的依据;当CART是回归树时,采用MSE(均方误差)作为结点分裂的依据;分类树和回归树的区别在于:针对分类任务,就是分类树;针对回归任务,就是回归树。分类任务:预测目标...