机器学习决策树模型
余生概述
决策树:分类决策树是一种描述描述对实例进行分类的树形结构
-
决策时的学习旨在构建一个与训练数据拟合很好,并且复杂度小的决策树。因为从可能的决策树选择最优决策树是NP完全问题,现实中采用启发式算法。
-
决策树的学习包括:特征选择,树的生成,树的剪枝。常用的算法有ID3, C4.5,CART。
-
特征选择的准则是信息增益或信息增益比或基尼指数
-
决策树的生成通常选用信息增益最大,信息增益比最大或基尼系数最小的作为特征选择的准则,从根节点开始递归的产生决策树。
-
熵
H(X)=−i=1∑npilogpi
条件熵,可以理解为在不同特征取值下的熵的加权和
H(Y∣X)=i=1∑npiH(Y∣X=xi)pi=P(X=xi)
信息增益
g(D,A)=H(D)−H(D∣A)
信息增益比
gR(D,A)=HA(D)g(D,A)HA(D)=−i=1∑n∣D∣∣Di∣log∣D∣∣Di∣
决策树的生成
算法停止计算的条通常是节点中的样本点个数小于设定阈值,或样本集合的基尼不纯度(信息增益)小于设定阈值,亦或是没有更多特征
1.CART分类树的生成
决策树的剪枝
-
简单决策树的剪枝
损失函数
Cα(T)=t=1∑∣T∣NtHt(T)+α∣T∣=C(T)+α∣T∣Ht(T)是经验熵
-
CART剪枝
对所有的内部节点t计算:
g(t)=∣Tt∣−1C(T)−C(Tt)α=min(α,g(t))