机器学习——决策树

我不是女神ヾ 2023-06-30 01:50 80阅读 0赞

转载:
https://cuijiahua.com/blog/2017/11/ml\_2\_decision\_tree\_1.html
https://cuijiahua.com/blog/2017/11/ml\_3\_decision\_tree\_2.html
https://blog.csdn.net/jiaoyangwm/article/details/79525237

一、决策树简介

1.1、解释
决策树是什么?决策树(decision tree)是一种基本的分类与回归方法。
举个通俗易懂的例子:判断是否给贷款,如下图所示的流程图就是一个决策树,长方形代表判断模块(decision block),椭圆形成代表终止模块(terminating block),表示已经得出结论,可以终止运行。从判断模块引出的左右箭头称作为分支(branch),它可以达到另一个判断模块或者终止模块。
在这里插入图片描述

1.2、组成
决策树由结点(node)和有向边(directed edge)组成。
结点有两种类型:内部结点(internal node)和叶结点(leaf node)。
内部结点表示一个特征或属性,叶结点表示一个类。
长方形和椭圆形都是结点。长方形的结点属于内部结点,椭圆形的结点属于叶结点,从结点引出的左右箭头就是有向边。而最上面的结点就是决策树的根结点(root node)。

1.3、通俗解释
决策树就是做判断,做出每个判断都对应不同的结果,一直做判断直到得到最总结果。

1.4、决策树术语
(1)香农熵
集合信息的度量方式称为香农熵或者简称为熵(entropy),这个名字来源于信息论之父克劳德·香农。
在这里插入图片描述
图片中的 p(xi) 指的是概率。期中n是分类的数目。熵越大,随机变量的不确定性就越大。

(2) 条件熵
条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵(conditional entropy)H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望
在这里插入图片描述
在这里插入图片描述
图片中的 p(xi) 指的是概率。

(3) 信息增益
信息增益是相对于特征而言的,信息增益越大,特征对最终的分类结果影响也就越大,我们就应该选择对最终分类结果影响最大的那个特征作为我们的分类特征。

信息增益是相对于特征而言的。所以,特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差
在这里插入图片描述
一般地,熵H(D)与条件熵H(D|A)之差称为互信息(mutual information)。决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

1.5、决策树步骤

  1. 收集数据:可以使用任何方法。比如想构建一个相亲系统,我们可以从媒婆那里,或者通过采访相亲对象获取数据。根据他们考虑的因素和最终的选择结果,就可以得到一些供我们利用的数据了。
  2. 准备数据:收集完的数据,我们要进行整理,将这些所有收集的信息按照一定规则整理出来,并排版,方便我们进行后续处理。
  3. 分析数据:可以使用任何方法,决策树构造完成之后,我们可以检查决策树图形是否符合预期。
  4. 训练算法:这个过程也就是构造决策树,同样也可以说是决策树学习,就是构造一个决策树的数据结构。
  5. 测试算法:使用经验树计算错误率。当错误率达到了可接收范围,这个决策树就可以投放使用了。
  6. 使用算法:此步骤可以使用适用于任何监督学习算法,而使用决策树可以更好地理解数据的内在含义。

二、示例

判断是否能够给贷款
在这里插入图片描述
2.1、创建具体步骤

  1. 整理数据:将原始数据整理为数据集、分类属性
  2. 计算经验熵:按照公式计算
  3. 计算最大信息增益:在经验熵的基础上,计算得到条件熵,用经验熵减去条件熵
  4. 创建决策树:最大增益对应最优特征索引,递归创建
  5. 使用决策树:利用决策树判断测试例子

2.2、提取特征向量

  1. 年龄:0代表青年,1代表中年,2代表老年;
  2. 有工作:0代表否,1代表是;
  3. 有自己的房子:0代表否,1代表是;
  4. 信贷情况:0代表一般,1代表好,2代表非常好;
  5. 类别(是否给贷款):no代表否,yes代表是。

    dataSet = [

    1. [0, 0, 0, 0, 'no'],
    2. [0, 0, 0, 1, 'no'],
    3. [0, 1, 0, 1, 'yes'],
    4. [0, 1, 1, 0, 'yes'],
    5. [0, 0, 0, 0, 'no'],
    6. [1, 0, 0, 0, 'no'],
    7. [1, 0, 0, 1, 'no'],
    8. [1, 1, 1, 1, 'yes'],
    9. [1, 0, 1, 2, 'yes'],
    10. [1, 0, 1, 2, 'yes'],
    11. [2, 0, 1, 2, 'yes'],
    12. [2, 0, 1, 1, 'yes'],
    13. [2, 1, 0, 1, 'yes'],
    14. [2, 1, 0, 2, 'yes'],
    15. [2, 0, 0, 0, 'no']
    16. ]

2.3、完整代码

  1. # !/usr/bin/python
  2. # -*- coding: utf-8 -*-
  3. # @Time : 2020/1/1 18:01
  4. # @Author : ljf
  5. # @File : DT_test4.py
  6. from matplotlib.font_manager import FontProperties
  7. import matplotlib.pyplot as plt
  8. from math import log
  9. import operator
  10. def createDataSet():
  11. """
  12. 函数说明:创建测试数据集
  13. Returns:
  14. dataSet: 数据集
  15. labels: 分类属性
  16. """
  17. dataSet = [
  18. [0, 0, 0, 0, 'no'],
  19. [0, 0, 0, 1, 'no'],
  20. [0, 1, 0, 1, 'yes'],
  21. [0, 1, 1, 0, 'yes'],
  22. [0, 0, 0, 0, 'no'],
  23. [1, 0, 0, 0, 'no'],
  24. [1, 0, 0, 1, 'no'],
  25. [1, 1, 1, 1, 'yes'],
  26. [1, 0, 1, 2, 'yes'],
  27. [1, 0, 1, 2, 'yes'],
  28. [2, 0, 1, 2, 'yes'],
  29. [2, 0, 1, 1, 'yes'],
  30. [2, 1, 0, 1, 'yes'],
  31. [2, 1, 0, 2, 'yes'],
  32. [2, 0, 0, 0, 'no']
  33. ]
  34. labels = ['年龄', '有工作', '有自己的房子', '信贷情况'] # 特征标签
  35. return dataSet, labels # 返回数据集和分类属性
  36. def calcShannonEnt(dataSet):
  37. """
  38. 函数说明:计算给定数据集的经验熵(香农熵)
  39. Args:
  40. dataSet: 数据集
  41. Returns:
  42. shannonEnt: 经验熵(香农熵)
  43. """
  44. numEntires = len(dataSet) # 返回数据集的行数
  45. labelCounts = {
  46. } # 保存每个标签(Label)出现次数的字典
  47. for featVec in dataSet: # 对每组特征向量进行统计
  48. currentLabel = featVec[-1] # 提取标签(Label)信息
  49. if currentLabel not in labelCounts.keys(): # 如果标签(Label)没有放入统计次数的字典,添加进去
  50. labelCounts[currentLabel] = 0
  51. labelCounts[currentLabel] += 1 # Label计数
  52. shannonEnt = 0.0 # 经验熵(香农熵)
  53. for key in labelCounts: # 计算香农熵
  54. prob = float(labelCounts[key]) / numEntires # 选择该标签(Label)的概率
  55. shannonEnt -= prob * log(prob, 2) # 利用公式计算
  56. return shannonEnt # 返回经验熵(香农熵)
  57. def splitDataSet(dataSet, axis, value):
  58. """
  59. 函数说明:按照给定特征划分数据集
  60. Args:
  61. dataSet: 待划分的数据集
  62. axis: 划分数据集的特征
  63. value: 需要返回的特征的值
  64. Returns:
  65. retDataSet:去掉后的数据集
  66. """
  67. retDataSet = [] # 创建返回的数据集列表
  68. for featVec in dataSet: # 遍历数据集
  69. if featVec[axis] == value:
  70. reducedFeatVec = featVec[:axis] # 去掉axis特征
  71. reducedFeatVec.extend(featVec[axis + 1:]) # 将符合条件的添加到返回的数据集
  72. retDataSet.append(reducedFeatVec)
  73. return retDataSet # 返回划分后的数据集
  74. def chooseBestFeatureToSplit(dataSet):
  75. """
  76. 函数说明:选择最优特征
  77. Args:
  78. dataSet: 数据集
  79. Returns:
  80. bestFeature:信息增益最大的(最优)特征的索引值
  81. """
  82. numFeatures = len(dataSet[0]) - 1 # 特征数量
  83. baseEntropy = calcShannonEnt(dataSet) # 计算数据集的香农熵
  84. bestInfoGain = 0.0 # 信息增益
  85. bestFeature = -1 # 最优特征的索引值
  86. for i in range(numFeatures): # 遍历所有特征
  87. # 获取dataSet的第i个所有特征
  88. featList = [example[i] for example in dataSet]
  89. uniqueVals = set(featList) # 创建set集合{},元素不可重复
  90. newEntropy = 0.0 # 经验条件熵
  91. for value in uniqueVals: # 计算信息增益
  92. subDataSet = splitDataSet(dataSet, i, value) # subDataSet划分后的子集
  93. prob = len(subDataSet) / float(len(dataSet)) # 计算子集的概率
  94. newEntropy += prob * calcShannonEnt(subDataSet) # 根据公式计算经验条件熵
  95. infoGain = baseEntropy - newEntropy # 信息增益
  96. # print("第%d个特征的增益为%.3f" % (i, infoGain)) # 打印每个特征的信息增益
  97. if infoGain > bestInfoGain: # 计算信息增益
  98. bestInfoGain = infoGain # 更新信息增益,找到最大的信息增益
  99. bestFeature = i # 记录信息增益最大的特征的索引值
  100. return bestFeature # 返回信息增益最大的特征的索引值
  101. def majorityCnt(classList):
  102. """
  103. 函数说明:统计classList中出现此处最多的元素(类标签)
  104. Args:
  105. classList: 类标签列表
  106. Returns:
  107. sortedClassCount[0][0]: 出现此处最多的元素(类标签)
  108. """
  109. classCount = {
  110. }
  111. for vote in classList: # 统计classList中每个元素出现的次数
  112. if vote not in classCount.keys():
  113. classCount[vote] = 0
  114. classCount[vote] += 1
  115. sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) # 根据字典的值降序排序
  116. return sortedClassCount[0][0] # 返回classList中出现次数最多的元素
  117. def createTree(dataSet, labels, featLabels):
  118. """
  119. 函数说明:创建决策树
  120. Args:
  121. dataSet: 训练数据集
  122. labels: 分类属性标签
  123. featLabels: 存储选择的最优特征标签
  124. Returns:
  125. myTree: 决策树
  126. """
  127. classList = [example[-1] for example in dataSet] # 取分类标签(是否放贷:yes or no)
  128. if classList.count(classList[0]) == len(classList): # 如果类别完全相同则停止继续划分,说明这个分类无论是好多,都不影响结果
  129. return classList[0]
  130. if len(dataSet[0]) == 1 or len(labels) == 0: # 遍历完所有特征时返回出现次数最多的类标签
  131. return majorityCnt(classList)
  132. bestFeat = chooseBestFeatureToSplit(dataSet) # 选择最优特征
  133. bestFeatLabel = labels[bestFeat] # 最优特征的标签
  134. featLabels.append(bestFeatLabel)
  135. myTree = {
  136. bestFeatLabel: {
  137. }} # 根据最优特征的标签生成树
  138. del (labels[bestFeat]) # 删除已经使用特征标签
  139. featValues = [example[bestFeat] for example in dataSet] # 得到训练集中所有最优特征的属性值
  140. uniqueVals = set(featValues) # 去掉重复的属性值
  141. for value in uniqueVals: # 遍历特征,创建决策树。
  142. subLabels = labels[:]
  143. myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value), subLabels, featLabels)
  144. return myTree
  145. def getNumLeafs(myTree):
  146. """
  147. 函数说明:获取决策树叶子结点的数目
  148. Args:
  149. myTree: 决策树
  150. Returns:
  151. numLeafs: 决策树的叶子结点的数目
  152. """
  153. numLeafs = 0 # 初始化叶子
  154. # python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法获取结点属性,可以使用list(myTree.keys())[0]
  155. firstStr = next(iter(myTree))
  156. secondDict = myTree[firstStr] # 获取下一组字典
  157. for key in secondDict.keys():
  158. if type(secondDict[key]).__name__ == 'dict': # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
  159. numLeafs += getNumLeafs(secondDict[key])
  160. else:
  161. numLeafs += 1
  162. return numLeafs
  163. def getTreeDepth(myTree):
  164. """
  165. 函数说明:获取决策树的层数
  166. Args:
  167. myTree: 决策树
  168. Returns:
  169. maxDepth: 决策树的层数
  170. """
  171. maxDepth = 0 # 初始化决策树深度
  172. # python3中myTree.keys()返回的是dict_keys,不在是list,所以不能使用myTree.keys()[0]的方法获取结点属性,可以使用list(myTree.keys())[0]
  173. firstStr = next(iter(myTree))
  174. secondDict = myTree[firstStr] # 获取下一个字典
  175. for key in secondDict.keys():
  176. if type(secondDict[key]).__name__ == 'dict': # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
  177. thisDepth = 1 + getTreeDepth(secondDict[key])
  178. else:
  179. thisDepth = 1
  180. if thisDepth > maxDepth: maxDepth = thisDepth # 更新层数
  181. return maxDepth
  182. def plotNode(nodeTxt, centerPt, parentPt, nodeType):
  183. """
  184. 函数说明:绘制结点
  185. Args:
  186. nodeTxt: 结点名
  187. centerPt: 文本位置
  188. parentPt: 标注的箭头位置
  189. nodeType: 结点格式
  190. Returns:
  191. """
  192. arrow_args = dict(arrowstyle="<-") # 定义箭头格式
  193. font = FontProperties(fname=r"c:\windows\fonts\simsun.ttc", size=14) # 设置中文字体
  194. # 绘制结点
  195. createPlot.ax1.annotate(
  196. nodeTxt, xy=parentPt, xycoords='axes fraction', xytext=centerPt,
  197. textcoords='axes fraction', va="center", ha="center",
  198. bbox=nodeType, arrowprops=arrow_args, FontProperties=font
  199. )
  200. def plotMidText(cntrPt, parentPt, txtString):
  201. """
  202. 函数说明:标注有向边属性值
  203. Args:
  204. cntrPt: 注释的位置
  205. parentPt: 被注释点的位置
  206. txtString: 标注的内容
  207. Returns:
  208. """
  209. xMid = (parentPt[0] - cntrPt[0]) / 2.0 + cntrPt[0] # 计算标注位置
  210. yMid = (parentPt[1] - cntrPt[1]) / 2.0 + cntrPt[1]
  211. createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)
  212. def plotTree(myTree, parentPt, nodeTxt):
  213. """
  214. 函数说明:绘制决策树
  215. Args:
  216. myTree: 决策树(字典)
  217. parentPt: 标注的内容
  218. nodeTxt: 结点名
  219. Returns:
  220. """
  221. decisionNode = dict(boxstyle="sawtooth", fc="0.8") # 设置结点格式
  222. leafNode = dict(boxstyle="round4", fc="0.8") # 设置叶结点格式
  223. numLeafs = getNumLeafs(myTree) # 获取决策树叶结点数目,决定了树的宽度
  224. depth = getTreeDepth(myTree) # 获取决策树层数
  225. firstStr = next(iter(myTree)) # 下个字典
  226. cntrPt = (plotTree.xOff + (1.0 + float(numLeafs)) / 2.0 / plotTree.totalW, plotTree.yOff) # 中心位置
  227. plotMidText(cntrPt, parentPt, nodeTxt) # 标注有向边属性值
  228. plotNode(firstStr, cntrPt, parentPt, decisionNode) # 绘制结点
  229. secondDict = myTree[firstStr] # 下一个字典,也就是继续绘制子结点
  230. plotTree.yOff = plotTree.yOff - 1.0 / plotTree.totalD # y偏移
  231. for key in secondDict.keys():
  232. if type(secondDict[key]).__name__ == 'dict': # 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点
  233. plotTree(secondDict[key], cntrPt, str(key)) # 不是叶结点,递归调用继续绘制
  234. else: # 如果是叶结点,绘制叶结点,并标注有向边属性值
  235. plotTree.xOff = plotTree.xOff + 1.0 / plotTree.totalW
  236. plotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)
  237. plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))
  238. plotTree.yOff = plotTree.yOff + 1.0 / plotTree.totalD
  239. def createPlot(inTree):
  240. """
  241. 函数说明:创建绘制面板
  242. Args:
  243. inTree: 决策树(字典)
  244. Returns:
  245. """
  246. fig = plt.figure(1, facecolor='white') # 创建fig
  247. fig.clf() # 清空fig
  248. axprops = dict(xticks=[], yticks=[])
  249. createPlot.ax1 = plt.subplot(111, frameon=False, **axprops) # 去掉x、y轴
  250. plotTree.totalW = float(getNumLeafs(inTree)) # 获取决策树叶结点数目
  251. plotTree.totalD = float(getTreeDepth(inTree)) # 获取决策树层数
  252. plotTree.xOff = -0.5 / plotTree.totalW
  253. plotTree.yOff = 1.0 # x偏移
  254. plotTree(inTree, (0.5, 1.0), '') # 绘制决策树
  255. plt.show() # 显示绘制结果
  256. def classify(inputTree, featLabels, testVec):
  257. """
  258. 函数说明:使用决策树分类
  259. Args:
  260. inputTree: 已经生成的决策树
  261. featLabels: 存储选择的最优特征标签
  262. testVec: 测试数据列表,顺序对应最优特征标签
  263. Returns:
  264. classLabel: 分类结果
  265. """
  266. firstStr = next(iter(inputTree)) # 获取决策树结点
  267. secondDict = inputTree[firstStr] # 下一个字典
  268. featIndex = featLabels.index(firstStr)
  269. for key in secondDict.keys():
  270. if testVec[featIndex] == key:
  271. if type(secondDict[key]).__name__ == 'dict':
  272. classLabel = classify(secondDict[key], featLabels, testVec)
  273. else:
  274. classLabel = secondDict[key]
  275. return classLabel
  276. if __name__ == '__main__':
  277. dataSet, labels = createDataSet()
  278. featLabels = []
  279. myTree = createTree(dataSet, labels, featLabels)
  280. print(myTree)
  281. createPlot(myTree)
  282. testVec = [1, 0] # 测试数据
  283. result = classify(myTree, featLabels, testVec)
  284. if result == 'yes':
  285. print('放贷')
  286. if result == 'no':
  287. print('不放贷')

2.4、结果
可以看到年龄、贷款信誉在例子中没出现,即没有关系。
在这里插入图片描述

三、总结

3.1、决策树主要算法
在这里插入图片描述
在这里插入图片描述

3.2、优缺点
(1)优点:

  • 易于理解和解释,决策树可以可视化。
  • 几乎不需要数据预处理。其他方法经常需要数据标准化,创建虚拟变量和删除缺失值。决策树还不支持缺失值。
  • 使用树的花费(例如预测数据)是训练数据点(data points)数量的对数。
  • 可以同时处理数值变量和分类变量。其他方法大都适用于分析一种变量的集合。
  • 可以处理多值输出变量问题。
  • 使用白盒模型。如果一个情况被观察到,使用逻辑判断容易表示这种规则。相反,如果是黑盒模型(例如人工神经网络),结果会非常难解释。
  • 即使对真实模型来说,假设无效的情况下,也可以较好的适用。

(2)缺点:

  • 决策树学习可能创建一个过于复杂的树,并不能很好的预测数据。也就是过拟合。修剪机制(现在不支持),设置一个叶子节点需要的最小样本数量,或者数的最大深度,可以避免过拟合。
  • 决策树可能是不稳定的,因为即使非常小的变异,可能会产生一颗完全不同的树。这个问题通过decision trees with an ensemble来缓解。
  • 学习一颗最优的决策树是一个NP-完全问题under several aspects of optimality and even for simple concepts。因此,传统决策树算法基于启发式算法,例如贪婪算法,即每个节点创建最优决策。这些算法不能产生一个全家最优的决策树。对样本和特征随机抽样可以降低整体效果偏差。
  • 概念难以学习,因为决策树没有很好的解释他们,例如,XOR, parity or multiplexer problems.
    如果某些分类占优势,决策树将会创建一棵有偏差的树。因此,建议在训练之前,先抽样使样本均衡。

(3)决策树算法主要包括三个部分:特征选择、树的生成、树的剪枝。常用算法有 ID3、C4.5、CART。

  • 特征选择。特征选择的目的是选取能够对训练集分类的特征。特征选择的关键是准则:信息增益、信息增益比、Gini 指数;
  • 决策树的生成。通常是利用信息增益最大、信息增益比最大、Gini 指数最小作为特征选择的准则。从根节点开始,递归的生成决策树。相当于是不断选取局部最优特征,或将训练集分割为基本能够正确分类的子集;
  • 决策树的剪枝。决策树的剪枝是为了防止树的过拟合,增强其泛化能力。包括预剪枝和后剪枝。

发表评论

表情:
评论列表 (有 0 条评论,80人围观)

还没有评论,来说两句吧...

相关阅读

    相关 机器学习-04决策

    4、决策树 4.1 决策树基本概念 顾名思义,决策树是基于树结构来进行决策的,在网上看到一个例子十分有趣,放在这里正好合适。现想象一位捉急的母亲想要给自己的女娃介绍

    相关 机器学习-决策

    决策树是常见的机器学习算法。类似于人类在面临决策问题时的自然处理机制,是基于树结构来进行决策的。例如,我们要对“这是好瓜吗?”的问题进行决策,通常会进行一系列的子决策:我们会先

    相关 机器学习基础--决策

    决策树是很基础很经典的一个分类方法,基本上很多工业中很使用且常用的算法基础都是决策树,比如boost,GBDT,CART(分类回归树),我们后需会慢慢分析,决策时定义如下:

    相关 机器学习决策 总结

    具体的细节概念就不提了,这篇blog主要是用来总结一下决策树的要点和注意事项,以及应用一些决策树代码的。 一、决策树的优点: • 易于理解和解释。数可以可视化。也就是说

    相关 机器学习决策

    决策树 【关键词】树,熵,信息增益 决策树的优缺点 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。既能用于分类,也能用