当前位置:首页 > 社区养老方面 > 正文

决策树模式

  1. 什么是决策树?
  2. 什么时候选用决策树?
  3. 决策树和决策法是?

什么决策树?

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。

由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。

Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。

决策树模式
(图片来源网络,侵删)

这一度量是基于信息学理论中熵的概念。

决策树是一种基于树形结构的分类模型,常用于解决监督学习的分类问题。其原理简单:从数据选择某个特征进行划分,将数据按照该特征值进行分类,接着在子数据集中重复该过程,一直重复到满足某个停止条件,如数据集数量小于某个阈值,或者所有数据都属于同一类别。在预测时,将新样本从根节点开始遍历决策树,直到达到某个叶子节点,该叶子节点所属的类别就是预测结果。

决策树具有易于解释和理解的特点,同时可以处理具有数值和离散特征的数据。然而,在模型构建时需要注意过拟合的问题,可以通过剪枝或者随机森林等方式进行优化。

决策树模式
(图片来源网络,侵删)

什么时候选用决策树?

什么时候使用决策树有以下两种情况:

1、适合于标称型(在有限目标集中取值)属性较多的样本数据。

2、具有较广的适用性,当对模型不确定时可以使用决策树进行验证。

决策树模式
(图片来源网络,侵删)

决策树的特点

①优点

简单易懂,容易解释,可视化,适用性广。

可用于分类、回归问题。

②缺点

容易过拟合。

数据中的小变化会影响结果,不稳定。

决策树和决策法是?

决策树分析法是一种运用概率与图论中的树对决策中的不同方案进行比较,从而获得最优方案的风险型决策方法。图论中的树是连通且无回路的有向图,入度为0的点称为树根,出度为0的点称为树叶,树叶以外的点称为内点。决策树由树根(决策节点)、其他内点(方案节点、状态节点)、树叶(终点)、树枝(方案枝、概率枝)、概率值、损益值组成。