决策树法的计算步骤,决策树法计算例题三个方案

广告位招租
联系电话:13518188210

决策树法分为那几个步骤

决策树法分为那几个步骤

1、特征选择

特征选择决定了使用哪些特征来做判断。在训练数据集中,每个样本的属性可能有很多个,不同属性的作用有大有小。因而特征选择的作用就是筛选出跟分类结果相关性较高的特征,也就是分类能力较强的特征。在特征选择中通常使用的准则是:信息增益。

2、决策树生成

选择好特征后,就从根节点触发,对节点计算所有特征的信息增益,选择信息增益最大的特征作为节点特征,根据该特征的不同取值建立子节点;对每个子节点使用相同的方式生成新的子节点,直到信息增益很小或者没有特征可以选择为止。

3、决策树剪枝

剪枝的主要目的是对抗「过拟合」,通过主动去掉部分分支来降低过拟合的风险。

【简介】

决策树是一种解决分类问题的算法,决策树算法采用树形结构,使用层层推理来实现最终的分类。

决策树法的步骤

决策树法的步骤

决策树法的几个关键步骤是:

1、画出决策树,画决策树的过程也就是对未来可能发生的各种事件进行周密思考、预测的过程,把这些情况用树状图表示出来.先画决策点,再找方案分枝和方案点.最后再画出概率分枝。

2、由专家估计法或用试验数据推算出概率值.并把概率写在概率分枝的位置上。

3、计算益损期望值,从树梢开始,由右向左的顺序进行.用期望值法计算.若决策目标是盈利时,比较各分枝,取期望值最大的分枝,其他分枝进行修剪。

扩展资料

决策树的优点

1、决策树易于理解和实现. 人们在通过解释后都有能力去理解决策树所表达的意义。

2、对于决策树,数据的准备往往是简单或者是不必要的 . 其他的技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。

3、能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。

4、 在相对短的时间内能够对大型数据源做出可行且效果良好的结果。

5、对缺失值不敏感

6、可以处理不相关特征数据

7、效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度。

决策树的缺点

1、对连续性的字段比较难预测。

2、对有时间顺序的数据,需要很多预处理的工作。

3、当类别太多时,错误可能就会增加的比较快。

4、一般的算法分类的时候,只是根据一个字段来分类。

5、在处理特征关联性比较强的数据时表现得不是太好

什么是决策树法 它一般要经过哪些步骤?

什么是决策树法 它一般要经过哪些步骤?

决策树就是只我们在做一个决策的时候,应该是从最根本来定一个政策,然后衍生出他所需要规划的规划的项目和。

决策树法的计算步骤,决策树法计算例题三个方案

决策树法

决策树法

图自己画,书上有例子
E(甲)=(430*0.7+(-60)*0.3)*6-800=898
E(乙)=(210*0.7+35*0.3)*6-250=695
E(丙)=(105*0.7+25*0.3)*6=486
我也是依葫芦画瓢,大家还是把书上例子看懂比较保险,错了要告诉我

原创文章,作者:聚禄鼎,如若转载,请注明出处:https://www.xxso.cn/69500.html

(0)
聚禄鼎的头像聚禄鼎
上一篇 2023年1月30日 上午8:34
下一篇 2023年1月30日 上午8:34

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注