是GBDT模型的一个进化版本,其主要思想是利用弱分类器(决策树)迭代训练以得到最优模型,该模型具有训练效果好、不易过拟合等优点(备注:容易出现过拟合的风险,需要限制树的最大深度来防止过拟合)。LGB是一个实现GBDT算法的框架,支持高效率的并行训练,并且具有更快的训练速度、更低的内存消耗、更好的准确率、支持分布式可以快速
print("The confusion of RF is\n{0},G-mean is {1},f-score is {2}".format(confusion_matrix(y_test,yhat_rf),geometric_mean_score(y_test,yhat_rf),f1_score(y_test,yhat_rf)))print("The confusion of LGB is\n{0},G-mean is {1},f-score is {2}".format(confusion_matrix(y_test...
实验结果显示,Deep-Forest在相对大的样本还是相对小的样本中,同样的不平衡比率与特征数上,效果要好于XGB、LGB和RF模型。且这种效果随着数据的增大而愈发的明显。在极端不平衡比率下(实验二),Deep-Forest的效果要好于XGB和LGB等。然而,Deep-Forest的缺点也很明显,即训练时间较长,且不支持GPU训练...