美文网首页
用于分类的决策树的理解

用于分类的决策树的理解

作者: Crystalajj | 来源:发表于2017-11-18 21:22 被阅读35次

决策树学习的三个步骤:特征选择,决策树生成,决策树剪枝。

特征选择

特征选择在于选取对训练数据具有分类能力的特征。那么如何选择呢?选择训练数据的所有特征中,信息增益或者信息增益比最大的特征。

决策树生成算法

经典算法:ID3算法,C4.5算法,基尼指数(CART生成算法)。

1 ID3算法

从根节点开始,在决策树各个节点上应用信息增益准则选择特征,递归地构建决策树。相当于用极大似然法进行概率模型的选择。

2 C4.5算法

C4.5算法是对ID3算法的改进,不是用信息增益,而是用信息增益比来选择特征。

3 基尼指数算法

根据训练数据集D,从根结点开始,递归地对每个结点进行以下操作,构建二叉决策树:

  1. 设结点的训练数据集为D,计算现有特征对该数据集的Gini系数。此时,对每一个特征A,对其可能取的每个值a,根据样本点对A=a的测试为“是”或 “否”将D分割成D1和D2两部分,计算A=a时的Gini系数。
  1. 在所有可能的特征A以及它们所有可能的切分点a中,选择Gini系数最小的特征及其对应的切分点作为最优特征与最优切分点。依最优特征与最优切分点,从现结点生成两个子结点,将训练数据集依特征分配到两个子结点中去。
  1. 对两个子结点递归地调用步骤1~2,直至满足停止条件。
    生成CART决策树。

算法停止计算的条件是结点中的样本个数小于预定阈值,或样本集的Gini系数小于预定阈值(样本基本属于同一类),或者没有更多特征。

详细见---> CART算法解析

决策树的剪枝

通过极小化决策树的整体损失函数来实现。定义损失函数,分别计算一组叶节点回缩到父节点之前与之后的整体树的损失函数值,若之后小于之前,那么进行剪枝,即将父节点变成新的叶节点。

相关文章

  • 用于分类的决策树的理解

    决策树学习的三个步骤:特征选择,决策树生成,决策树剪枝。 特征选择 特征选择在于选取对训练数据具有分类能力的特征。...

  • 决策树算法详解及python实现:ID3和CART

    摘要 决策树是一种基本的分类与回归方法,本文主要讨论用于分类的决策树,决策树模型呈树形结构,在分类问题中,表示基于...

  • 决策树

    简介 决策树是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于...

  • 决策树与随机森林

    决策树(decision tree)是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。决策树模型呈树形结构...

  • 统计机器学习-决策树

    决策树是一种基本的分类与回归方法。ID3和C4.5决策树可以用于分类,CART(分类与回归树)既可以用于分类,也可...

  • 机器学习系列6:决策树

    决策树是一种基本的分类与回归方法。这里主要讨论决策树用于分类。 决策树模型是描述对样本进行分类的树形结构。树由结点...

  • 决策树的理解与应用

    背景 决策树?是一种基本的分类和回归的方法【以前总是下意识以为决策树只能用于分类,事实上还可以用于回归】。在分类问...

  • 机器学习实战教程(三):决策树实战篇(c)

    四、使用决策树执行分类 依靠训练数据构造了决策树之后,我们可以将它用于实际数据的分类。在执行数据分类时,需要决策树...

  • 决策树

    决策树 [toc] 原理解释 决策树是一个有监督的算法,可用于分类和回归。它从目标变量中学习一系列的决策规则,来对...

  • 决策树学习

    下文介绍学习决策树的过程,我们通过例子来更好地理解决策树。 决策树是什么,是一种基本的分类与回归的方法。分类决策树...

网友评论

      本文标题:用于分类的决策树的理解

      本文链接:https://www.haomeiwen.com/subject/ubzevxtx.html