EduCoder 机器学习 决策树

ゞ 浴缸里的玫瑰 2022-10-08 02:30 300阅读 0赞

决策树说通俗点就是一棵能够替我们做决策的树,或者说是我们人类在要做决策时脑回路的一种表现形式。

本实训项目的主要内容是基于 python 语言搭建出决策树模型对数据分类,并使用 sklearn 的决策时模型对鸢尾花数据进行分类。

第1关:什么是决策树

  • 任务描述
  • 相关知识

    • 引例
    • 决策树的相关概念
  • 编程要求
  • 测试说明

任务描述

本关任务:根据本节课所学知识完成本关所设置的选择题。

相关知识

为了完成本关任务,你需要掌握决策树的相关基础知识。

引例

在炎热的夏天,没有什么比冰镇后的西瓜更能令人感到心旷神怡的了。现在我要去水果店买西瓜,但什么样的西瓜能入我法眼呢?那根据我的个人习惯,在挑西瓜时可能就有这样的脑回路。

283157

假设现在水果店里有3个西瓜,它们的属性如下:


































编号 瓤是否够红 够不够冰 是否便宜 是否有籽
1
2
3

那么根据我的脑回路我会买12号西瓜。

其实我的脑回路可以看成一棵树,并且这棵树能够帮助我对买不买西瓜这件事做决策,所以它就是一棵决策树

决策树的相关概念

决策树是一种可以用于分类与回归的机器学习算法,但主要用于分类。用于分类的决策树是一种描述对实例进行分类的树形结构。决策树由结点组成,其中结点分为内部结点叶子结点内部结点表示一个特征或者属性,叶子结点表示标签(脑回路图中黄色的是内部结点,蓝色的是叶子结点)。

从代码角度来看,决策树其实可以看成是一堆if-else语句的集合,例如引例中的决策树完全可以看成是如下代码:

  1. if isRed:
  2. if isCold:
  3. if hasSeed:
  4. print("buy")
  5. else:
  6. print("don't buy")
  7. else:
  8. if isCheap:
  9. print("buy")
  10. else:
  11. print("don't buy")
  12. else:
  13. print("don't buy")

因此决策树的一个非常大的优势就是模型的可理解性非常高,甚至可以用来挖掘数据中比较重要的信息。

那么如何构造出一棵好的决策树呢?其实构造决策树时会遵循一个指标,有的是按照信息增益来构建,如ID3算法;有的是信息增益率来构建,如C4.5算法;有的是按照基尼系数来构建的,如CART算法。但不管是使用哪种构建算法,决策树的构建过程通常都是一个递归选择最优特征,并根据特征对训练集进行分割,使得对各个子数据集有一个最好的分类的过程。

这一过程对应着对特征空间的划分,也对应着决策树的构建。一开始,构建决策树的根结点,将所有训练数据都放在根结点。选择一个最优特征,并按照这一特征将训练数据集分割成子集,使得各个子集有一个在当前条件下最好的分类。如果这些子集已经能够被基本正确分类,那么构建叶子结点,并将这些子集分到所对应的叶结点中去;如果还有子集不能被基本正确分类,那么就对这些子集选择新的最优特征,继续对其进行分割,并构建相应的结点。如此递归进行下去,直至所有训练数据子集被基本正确分类,或者没有合适的特征为止。最后每个子集都被分到叶子结点上,即都有了明确的类别。这就构建出了一棵决策树。

编程要求

根据本关所学习到的知识,完成所有选择题。

测试说明

平台会对你的选项进行判断,如果实际输出结果与预期结果相同,则通关;反之,则 GameOver


开始你的任务吧,祝你成功!

  • 1、下列说法正确的是?(AB)

    A、

    训练决策树的过程就是构建决策树的过程

    B、

    ID3算法是根据信息增益来构建决策树

    C、

    C4.5算法是根据基尼系数来构建决策树

    D、

    决策树模型的可理解性不高

  • 2、下列说法错误的是?(B)

    A、

    从树的根节点开始,根据特征的值一步一步走到叶子节点的过程是决策树做决策的过程

    B、

    决策树只能是一棵二叉树

    C、

    根节点所代表的特征是最优特征

第2关:信息熵与信息增益

  • 任务描述
  • 相关知识

    • 信息熵
    • 条件熵
    • 信息增益
  • 编程要求
  • 测试说明

任务描述

本关任务:掌握什么是信息增益,完成计算信息增益的程序设计。

相关知识

为了完成本关任务,你需要掌握:

  • 信息熵;
  • 条件熵;
  • 信息增益。
信息熵

信息是个很抽象的概念。人们常常说信息很多,或者信息较少,但却很难说清楚信息到底有多少。比如一本五十万字的中文书到底有多少信息量。

直到1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。信息熵这个词是香农从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。信源的不确定性越大,信息熵也越大

从机器学习的角度来看,信息熵表示的是信息量的期望值。如果数据集中的数据需要被分成多个类别,则信息量I(xi​)的定义如下(其中xi​表示多个类别中的第i个类别,p(xi​)数据集中类别为xi​的数据在数据集中出现的概率表示):

I(Xi​)=−log2​p(xi​)

由于信息熵是信息量的期望值,所以信息熵H(X)的定义如下(其中n为数据集中类别的数量):

H(X)=−sumi=1n​p(xi​)log2​p(xi​)

从这个公式也可以看出,如果概率是0或者是1的时候,熵就是0(因为这种情况下随机变量的不确定性是最低的)。那如果概率是0.5,也就是五五开的时候,此时熵达到最大,也就是1。(就像扔硬币,你永远都猜不透你下次扔到的是正面还是反面,所以它的不确定性非常高)。所以呢,熵越大,不确定性就越高

条件熵

在实际的场景中,我们可能需要研究数据集中某个特征等于某个值时的信息熵等于多少,这个时候就需要用到条件熵。条件熵H(Y|X)表示特征X为某个值的条件下,类别为Y的熵。条件熵的计算公式如下:

H(Y∣X)=sumi=1n​pi​H(Y∣X=xi​)

当然条件熵的性质也和熵的性质一样,概率越确定,条件熵就越小,概率越五五开,条件熵就越大。

信息增益

现在已经知道了什么是熵,什么是条件熵。接下来就可以看看什么是信息增益了。所谓的信息增益就是表示我已知条件X后能得到信息Y的不确定性的减少程度。

就好比,我在玩读心术。你心里想一件东西,我来猜。我已开始什么都没问你,我要猜的话,肯定是瞎猜。这个时候我的熵就非常高。然后我接下来我会去试着问你是非题,当我问了是非题之后,我就能减小猜测你心中想到的东西的范围,这样其实就是减小了我的熵。那么我熵的减小程度就是我的信息增益。

所以信息增益如果套上机器学习的话就是,如果把特征A对训练集D的信息增益记为g(D, A)的话,那么g(D, A)的计算公式就是:

g(D,A)=H(D)−H(D,A)

为了更好的解释熵,条件熵,信息增益的计算过程,下面通过示例来描述。假设我现在有这一个数据集,第一列是编号,第二列是性别,第三列是活跃度,第四列是客户是否流失的标签(0表示未流失,1表示流失)。






































































































编号 性别 活跃度 是否流失
1 0
2 0
3 1
4 0
5 0
6 0
7 1
8 0
9 1
10 0
11 0
12 1
13 1
14 0
15 0

假如要算性别和活跃度这两个特征的信息增益的话,首先要先算总的熵和条件熵。总的熵其实非常好算,就是把标签作为随机变量X。上表中标签只有两种(01)因此随机变量X的取值只有0或者1。所以要计算熵就需要先分别计算标签为0的概率和标签为1的概率。从表中能看出标签为0的数据有10条,所以标签为0的概率等于2/3。标签为1的概率为1/3。所以熵为:

−(1/3)∗log(1/3)−(2/3)∗log(2/3)=0.9182

接下来就是条件熵的计算,以性别为男的熵为例。表格中性别为男的数据有8条,这8条数据中有3条数据的标签为1,有5条数据的标签为0。所以根据条件熵的计算公式能够得出该条件熵为:

−(3/8)∗log(3/8)−(5/8)∗log(5/8)=0.9543

根据上述的计算方法可知,总熵为:

−(5/15)∗log(5/15)−(10/15)∗log(10/15)=0.9182

性别为男的熵为:

−(3/8)∗log(3/8)−(5/8)∗log(5/8)=0.9543

性别为女的熵为:

−(2/7)∗log(2/7)−(5/7)∗log(5/7)=0.8631

活跃度为低的熵为:

−(4/4)∗log(4/4)−0=0

活跃度为中的熵为:

−(1/5)∗log(1/5)−(4/5)∗log(4/5)=0.7219

活跃度为高的熵为:

−0−(6/6)∗log(6/6)=0

现在有了总的熵和条件熵之后就能算出性别和活跃度这两个特征的信息增益了。

性别的信息增益=总的熵-(8/15)*性别为男的熵-(7/15)*性别为女的熵=0.0064

*活跃度的信息增益=总的熵-(6/15)活跃度为高的熵-(5/15)\活跃度为中的熵-(4/15)*活跃度为低的熵=0.6776*

那信息增益算出来之后有什么意义呢?回到读心术的问题,为了我能更加准确的猜出你心中所想,我肯定是问的问题越好就能猜得越准!换句话来说我肯定是要想出一个信息增益最大(减少不确定性程度最高)的问题来问你。其实ID3算法也是这么想的。ID3算法的思想是从训练集D中计算每个特征的信息增益,然后看哪个最大就选哪个作为当前结点。然后继续重复刚刚的步骤来构建决策树。

编程要求

根据提示,在右侧编辑器补充代码,完成calcInfoGain函数实现计算信息增益。

calcInfoGain函数中的参数:

  • feature:测试用例中字典里的feature,类型为ndarray
  • label:测试用例中字典里的label,类型为ndarray
  • index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。

测试说明

平台会对你编写的代码进行测试,期望您的代码根据输入来输出正确的信息增益,以下为其中一个测试用例:

测试输入: {'feature':[[0, 1], [1, 0], [1, 2], [0, 0], [1, 1]], 'label':[0, 1, 0, 0, 1], 'index': 0}

预期输出: 0.419973

提示: 计算log可以使用NumPy中的log2函数


开始你的任务吧,祝你成功!

  1. import numpy as np
  2. def calcInfoGain(feature, label, index):
  3. ''' 计算信息增益 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:信息增益,类型float '''
  4. #*********** Begin ***********#
  5. # 计算熵
  6. def calcInfoEntropy(feature, label):
  7. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :return:信息熵,类型float '''
  8. label_set = set(label)
  9. result = 0
  10. for l in label_set:
  11. count = 0
  12. for j in range(len(label)):
  13. if label[j] == l:
  14. count += 1
  15. # 计算标签在数据集中出现的概率
  16. p = count / len(label)
  17. # 计算熵
  18. result -= p * np.log2(p)
  19. return result
  20. # 计算条件熵
  21. def calcHDA(feature, label, index, value):
  22. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :param index:需要使用的特征列索引,类型为int :param value:index所表示的特征列中需要考察的特征值,类型为int :return:信息熵,类型float '''
  23. count = 0
  24. # sub_feature和sub_label表示根据特征列和特征值分割出的子数据集中的特征和标签
  25. sub_feature = []
  26. sub_label = []
  27. for i in range(len(feature)):
  28. if feature[i][index] == value:
  29. count += 1
  30. sub_feature.append(feature[i])
  31. sub_label.append(label[i])
  32. pHA = count / len(feature)
  33. e = calcInfoEntropy(sub_feature, sub_label)
  34. return pHA * e
  35. base_e = calcInfoEntropy(feature, label)
  36. f = np.array(feature)
  37. # 得到指定特征列的值的集合
  38. f_set = set(f[:, index])
  39. sum_HDA = 0
  40. # 计算条件熵
  41. for value in f_set:
  42. sum_HDA += calcHDA(feature, label, index, value)
  43. # 计算信息增益
  44. return base_e - sum_HDA
  45. #*********** End *************#

第3关:使用ID3算法构建决策树

  • 任务描述
  • 相关知识

    • ID3算法
    • 使用决策树进行预测
  • 编程要求
  • 测试说明

任务描述

本关任务:补充python代码,完成DecisionTree类中的fitpredict函数。

相关知识

为了完成本关任务,你需要掌握:

  • ID3算法构造决策树的流程;
  • 如何使用构造好的决策树进行预测。
ID3算法

ID3算法其实就是依据特征的信息增益来构建树的。其大致步骤就是从根结点开始,对结点计算所有可能的特征的信息增益,然后选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子结点,然后对子结点递归执行上述的步骤直到信息增益很小或者没有特征可以继续选择为止。

因此,ID3算法伪代码如下:

  1. #假设数据集为D,标签集为A,需要构造的决策树为tree
  2. def ID3(D, A):
  3. if D中所有的标签都相同:
  4. return 标签
  5. if 样本中只有一个特征或者所有样本的特征都一样:
  6. D中所有的标签进行计数
  7. return 计数最高的标签
  8. 计算所有特征的信息增益
  9. 选出增益最大的特征作为最佳特征(best_feature)
  10. best_feature作为tree的根结点
  11. 得到best_feature在数据集中所有出现过的值的集合(value_set)
  12. for value in value_set:
  13. D中筛选出best_feature=value的子数据集(sub_feature)
  14. A中筛选出best_feature=value的子标签集(sub_label)
  15. #递归构造tree
  16. tree[best_feature][value] = ID3(sub_feature, sub_label)
  17. return tree
使用决策树进行预测

决策树的预测思想非常简单,假设现在已经构建出了一棵用来决策是否买西瓜的决策树。

283157

并假设现在在水果店里有这样一个西瓜,其属性如下:


















瓤是否够红 够不够冰 是否便宜 是否有籽

那买不买这个西瓜呢?只需把西瓜的属性代入决策树即可。决策树的根结点是瓤是否够红,所以就看西瓜的属性,经查看发现够红,因此接下来就看够不够冰。而西瓜不够冰,那么看是否便宜。发现西瓜是便宜的,所以这个西瓜是可以买的。

因此使用决策树进行预测的伪代码也比较简单,伪代码如下:

  1. #tree表示决策树,feature表示测试数据
  2. def predict(tree, feature):
  3. if tree是叶子结点:
  4. return tree
  5. 根据feature中的特征值走入tree中对应的分支
  6. if 分支依然是课树:
  7. result = predict(分支, feature)
  8. return result

编程要求

填写fit(self, feature, label)函数,实现ID3算法,要求决策树保存在self.tree中。其中:

  • feature:训练集数据,类型为ndarray,数值全为整数;
  • label:训练集标签,类型为ndarray,数值全为整数。

填写predict(self, feature)函数,实现预测功能,并将标签返回,其中:

  • feature:测试集数据,类型为ndarray,数值全为整数。(PS:feature中有多条数据)

测试说明

只需完成fitpredict函数即可,程序内部会调用您所完成的fit函数构建模型并调用predict函数来对数据进行预测。预测的准确率高于0.92视为过关。(PS:若self.tree is None则会打印决策树构建失败)


开始你的任务吧,祝你成功!

  1. import numpy as np
  2. class DecisionTree(object):
  3. def __init__(self):
  4. #决策树模型
  5. self.tree = { }
  6. def calcInfoGain(self, feature, label, index):
  7. ''' 计算信息增益 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:信息增益,类型float '''
  8. # 计算熵
  9. def calcInfoEntropy(label):
  10. ''' 计算信息熵 :param label:数据集中的标签,类型为ndarray :return:信息熵,类型float '''
  11. label_set = set(label)
  12. result = 0
  13. for l in label_set:
  14. count = 0
  15. for j in range(len(label)):
  16. if label[j] == l:
  17. count += 1
  18. # 计算标签在数据集中出现的概率
  19. p = count / len(label)
  20. # 计算熵
  21. result -= p * np.log2(p)
  22. return result
  23. # 计算条件熵
  24. def calcHDA(feature, label, index, value):
  25. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :param index:需要使用的特征列索引,类型为int :param value:index所表示的特征列中需要考察的特征值,类型为int :return:信息熵,类型float '''
  26. count = 0
  27. # sub_feature和sub_label表示根据特征列和特征值分割出的子数据集中的特征和标签
  28. sub_feature = []
  29. sub_label = []
  30. for i in range(len(feature)):
  31. if feature[i][index] == value:
  32. count += 1
  33. sub_feature.append(feature[i])
  34. sub_label.append(label[i])
  35. pHA = count / len(feature)
  36. e = calcInfoEntropy(sub_label)
  37. return pHA * e
  38. base_e = calcInfoEntropy(label)
  39. f = np.array(feature)
  40. # 得到指定特征列的值的集合
  41. f_set = set(f[:, index])
  42. sum_HDA = 0
  43. # 计算条件熵
  44. for value in f_set:
  45. sum_HDA += calcHDA(feature, label, index, value)
  46. # 计算信息增益
  47. return base_e - sum_HDA
  48. # 获得信息增益最高的特征
  49. def getBestFeature(self, feature, label):
  50. max_infogain = 0
  51. best_feature = 0
  52. for i in range(len(feature[0])):
  53. infogain = self.calcInfoGain(feature, label, i)
  54. if infogain > max_infogain:
  55. max_infogain = infogain
  56. best_feature = i
  57. return best_feature
  58. def createTree(self, feature, label):
  59. # 样本里都是同一个label没必要继续分叉了
  60. if len(set(label)) == 1:
  61. return label[0]
  62. # 样本中只有一个特征或者所有样本的特征都一样的话就看哪个label的票数高
  63. if len(feature[0]) == 1 or len(np.unique(feature, axis=0)) == 1:
  64. vote = { }
  65. for l in label:
  66. if l in vote.keys():
  67. vote[l] += 1
  68. else:
  69. vote[l] = 1
  70. max_count = 0
  71. vote_label = None
  72. for k, v in vote.items():
  73. if v > max_count:
  74. max_count = v
  75. vote_label = k
  76. return vote_label
  77. # 根据信息增益拿到特征的索引
  78. best_feature = self.getBestFeature(feature, label)
  79. tree = { best_feature: { }}
  80. f = np.array(feature)
  81. # 拿到bestfeature的所有特征值
  82. f_set = set(f[:, best_feature])
  83. # 构建对应特征值的子样本集sub_feature, sub_label
  84. for v in f_set:
  85. sub_feature = []
  86. sub_label = []
  87. for i in range(len(feature)):
  88. if feature[i][best_feature] == v:
  89. sub_feature.append(feature[i])
  90. sub_label.append(label[i])
  91. # 递归构建决策树
  92. tree[best_feature][v] = self.createTree(sub_feature, sub_label)
  93. return tree
  94. def fit(self, feature, label):
  95. ''' :param feature: 训练集数据,类型为ndarray :param label:训练集标签,类型为ndarray :return: None '''
  96. #************* Begin ************#
  97. self.tree = self.createTree(feature, label)
  98. #************* End **************#
  99. def predict(self, feature):
  100. ''' :param feature:测试集数据,类型为ndarray :return:预测结果,如np.array([0, 1, 2, 2, 1, 0]) '''
  101. #************* Begin ************#
  102. result = []
  103. def classify(tree, feature):
  104. if not isinstance(tree, dict):
  105. return tree
  106. t_index, t_value = list(tree.items())[0]
  107. f_value = feature[t_index]
  108. if isinstance(t_value, dict):
  109. classLabel = classify(tree[t_index][f_value], feature)
  110. return classLabel
  111. else:
  112. return t_value
  113. for f in feature:
  114. result.append(classify(self.tree, f))
  115. return np.array(result)
  116. #************* End **************#

第4关:信息增益率

  • 任务描述
  • 相关知识

    • 信息增益率
  • 编程要求
  • 测试说明

任务描述

本关任务:根据本关所学知识,完成calcInfoGainRatio函数。

相关知识

为了完成本关任务,你需要掌握:信息增益率

信息增益率

由于在使用信息增益这一指标进行划分时,更喜欢可取值数量较多的特征。为了减少这种偏好可能带来的不利影响,Ross Quinlan使用了信息增益率这一指标来选择最优划分属性。

信息增益率的数学定义为如下,其中D表示数据集,a表示数据集中的某一列,Gain(D,a)表示D中a的信息增益,V表示a这一列中取值的集合,v表示V中的某种取值,∣D∣表示D中样本的数量,∣Dv∣表示D中a这一列中值等于v的数量。

Gain_ratio(D,a)=−v=1∑V​∣D∣∣Dv∣​log2​∣D∣∣Dv∣​Gain(D,a)​

从公式可以看出,信息增益率很好算,只是用信息增益除以另一个分母,该分母通常称为固有值。举个例子,还是使用第二关中提到过的数据集,第一列是编号,第二列是性别,第三列是活跃度,第四列是客户是否流失的标签(0表示未流失,1表示流失)。






































































































编号 性别 活跃度 是否流失
1 0
2 0
3 1
4 0
5 0
6 0
7 1
8 0
9 1
10 0
11 0
12 1
13 1
14 0
15 0

根据第二关已经知道性别的信息增益为0.0064,设a为性别,则有Gain(D,a)=0.0064。由根据数据可知,V=2,假设当v=1时表示性别为男,v=2时表示性别为女,则有∣D∣=15,∣D1∣=8,∣D2∣=7。因此根据信息增益率的计算公式可知Gainr​atio(D,a)=0.0642。同理可以算出活跃度的信息增益率为0.4328。

编程要求

根据提示,在右侧编辑器补充代码,完成calcInfoGainRatio函数实现计算信息增益。

calcInfoGainRatio函数中的参数:

  • feature:测试用例中字典里的feature,类型为ndarray
  • label:测试用例中字典里的label,类型为ndarray
  • index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益率。

测试说明

平台会对你编写的代码进行测试,期望您的代码根据输入来输出正确的信息增益,以下为其中一个测试用例:

测试输入: {'feature':[[0, 1], [1, 0], [1, 2], [0, 0], [1, 1]], 'label':[0, 1, 0, 0, 1], 'index': 0}

预期输出: 0.432538

提示: 计算log可以使用NumPy中的log2函数


开始你的任务吧,祝你成功!

  1. import numpy as np
  2. def calcInfoGain(feature, label, index):
  3. ''' 计算信息增益 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:信息增益,类型float '''
  4. # 计算熵
  5. def calcInfoEntropy(label):
  6. ''' 计算信息熵 :param label:数据集中的标签,类型为ndarray :return:信息熵,类型float '''
  7. label_set = set(label)
  8. result = 0
  9. for l in label_set:
  10. count = 0
  11. for j in range(len(label)):
  12. if label[j] == l:
  13. count += 1
  14. # 计算标签在数据集中出现的概率
  15. p = count / len(label)
  16. # 计算熵
  17. result -= p * np.log2(p)
  18. return result
  19. # 计算条件熵
  20. def calcHDA(feature, label, index, value):
  21. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :param index:需要使用的特征列索引,类型为int :param value:index所表示的特征列中需要考察的特征值,类型为int :return:信息熵,类型float '''
  22. count = 0
  23. # sub_feature和sub_label表示根据特征列和特征值分割出的子数据集中的特征和标签
  24. sub_feature = []
  25. sub_label = []
  26. for i in range(len(feature)):
  27. if feature[i][index] == value:
  28. count += 1
  29. sub_feature.append(feature[i])
  30. sub_label.append(label[i])
  31. pHA = count / len(feature)
  32. e = calcInfoEntropy(sub_label)
  33. return pHA * e
  34. base_e = calcInfoEntropy(label)
  35. f = np.array(feature)
  36. # 得到指定特征列的值的集合
  37. f_set = set(f[:, index])
  38. sum_HDA = 0
  39. # 计算条件熵
  40. for value in f_set:
  41. sum_HDA += calcHDA(feature, label, index, value)
  42. # 计算信息增益
  43. return base_e - sum_HDA
  44. def calcInfoGainRatio(feature, label, index):
  45. ''' 计算信息增益率 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:信息增益率,类型float '''
  46. #********* Begin *********#
  47. info_gain = calcInfoGain(feature, label, index)
  48. unique_value = list(set(feature[:, index]))
  49. IV = 0
  50. for value in unique_value:
  51. len_v = np.sum(feature[:, index] == value)
  52. IV -= (len_v/len(feature))*np.log2((len_v/len(feature)))
  53. return info_gain/IV
  54. #********* End *********#

第5关:基尼系数

  • 任务描述
  • 相关知识

    • 基尼系数
  • 编程要求
  • 测试说明

任务描述

本关任务:根据本关所学知识,完成calcGini函数。

相关知识

为了完成本关任务,你需要掌握:基尼系数。

基尼系数

ID3算法中我们使用了信息增益来选择特征,信息增益大的优先选择。在C4.5算法中,采用了信息增益率来选择特征,以减少信息增益容易选择特征值多的特征的问题。但是无论是ID3还是C4.5,都是基于信息论的熵模型的,这里面会涉及大量的对数运算。能不能简化模型同时也不至于完全丢失熵模型的优点呢?当然有!那就是基尼系数

CART算法使用基尼系数来代替信息增益率,基尼系数代表了模型的不纯度,基尼系数越小,则不纯度越低,特征越好。这和信息增益与信息增益率是相反的(它们都是越大越好)。

基尼系数的数学定义为如下,其中D表示数据集,pk​表示D中第k个类别在D中所占比例。

Gini(D)=1−sumk=1∣y∣​pk2​

从公式可以看出,相比于信息增益和信息增益率,计算起来更加简单。举个例子,还是使用第二关中提到过的数据集,第一列是编号,第二列是性别,第三列是活跃度,第四列是客户是否流失的标签(0表示未流失,1表示流失)。






































































































编号 性别 活跃度 是否流失
1 0
2 0
3 1
4 0
5 0
6 0
7 1
8 0
9 1
10 0
11 0
12 1
13 1
14 0
15 0

从表格可以看出,D中总共有2个类别,设类别为0的比例为p1​,则有p1​=1510​。设类别为1的比例为p2​,则有p2​=155​。根据基尼系数的公式可知Gini(D)=1−(p12​+p22​)=0.4444。

上面是基于数据集D的基尼系数的计算方法,那么基于数据集D与特征a的基尼系数怎样计算呢?其实和信息增益率的套路差不多。计算公式如下:

Gini(D,a)=sumv=1V​∣D∣∣Dv∣​Gini(Dv)

还是以用户流失的数据为例,现在算一算性别的基尼系数。设性别男为v=1,性别女为v=2则有∣D∣=15,∣D1∣=8,∣D2∣=7,Gini(D1)=0.46875,Gini(D2)=0.40816。所以Gini(D,a)=0.44048。

编程要求

根据提示,在右侧编辑器补充代码,完成calcGini函数实现计算信息增益。

calcGini函数中的参数:

  • feature:测试用例中字典里的feature,类型为ndarray
  • label:测试用例中字典里的label,类型为ndarray
  • index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算基尼系数。

测试说明

平台会对你编写的代码进行测试,期望您的代码根据输入来输出正确的信息增益,以下为其中一个测试用例:

测试输入: {'feature':[[0, 1], [1, 0], [1, 2], [0, 0], [1, 1]], 'label':[0, 1, 0, 0, 1], 'index': 0}

预期输出: 0.266667


开始你的任务吧,祝你成功!

  1. import numpy as np
  2. def calcGini(feature, label, index):
  3. ''' 计算基尼系数 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:基尼系数,类型float '''
  4. #********* Begin *********#
  5. def _gini(label):
  6. unique_label = list(set(label))
  7. gini = 1
  8. for l in unique_label:
  9. p = np.sum(label == l)/len(label)
  10. gini -= p**2
  11. return gini
  12. unique_value = list(set(feature[:, index]))
  13. gini = 0
  14. for value in unique_value:
  15. len_v = np.sum(feature[:, index] == value)
  16. gini += (len_v/len(feature))*_gini(label[feature[:, index] == value])
  17. return gini
  18. #********* End *********#

第6关:预剪枝与后剪枝

  • 任务描述
  • 相关知识

    • 为什么需要剪枝
    • 预剪枝
    • 后剪枝
  • 编程要求
  • 测试说明

任务描述

本关任务:补充python代码,完成DecisionTree类中的fitpredict函数。

相关知识

为了完成本关任务,你需要掌握:

  • 为什么需要剪枝;
  • 预剪枝;
  • 后剪枝。
为什么需要剪枝

决策树的生成是递归地去构建决策树,直到不能继续下去为止。这样产生的树往往对训练数据有很高的分类准确率,但对未知的测试数据进行预测就没有那么准确了,也就是所谓的过拟合。

决策树容易过拟合的原因是在构建决策树的过程时会过多地考虑如何提高对训练集中的数据的分类准确率,从而会构建出非常复杂的决策树(树的宽度和深度都比较大)。在之前的实训中已经提到过,模型的复杂度越高,模型就越容易出现过拟合的现象。所以简化决策树的复杂度能够有效地缓解过拟合现象,而简化决策树最常用的方法就是剪枝。剪枝分为预剪枝与后剪枝。

预剪枝

预剪枝的核心思想是在决策树生成过程中,对每个结点在划分前先进行一个评估,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点。

想要评估决策树算法的泛化性能如何,方法很简单。可以将训练数据集中随机取出一部分作为验证数据集,然后在用训练数据集对每个结点进行划分之前用当前状态的决策树计算出在验证数据集上的正确率。正确率越高说明决策树的泛化性能越好,如果在划分结点的时候发现泛化性能有所下降或者没有提升时,说明应该停止划分,并用投票计数的方式将当前结点标记成叶子结点。

举个例子,假如上一关中所提到的用来决定是否买西瓜的决策树模型已经出现过拟合的情况,模型如下:

283157

假设当模型在划分是否便宜这个结点前,模型在验证数据集上的正确率为0.81。但在划分后,模型在验证数据集上的正确率降为0.67。此时就不应该划分是否便宜这个结点。所以预剪枝后的模型如下:

283551

从上图可以看出,预剪枝能够降低决策树的复杂度。这种预剪枝处理属于贪心思想,但是贪心有一定的缺陷,就是可能当前划分会降低泛化性能,但在其基础上进行的后续划分却有可能导致性能显著提高。所以有可能会导致决策树出现欠拟合的情况。

后剪枝

后剪枝是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能够带来决策树泛化性能提升,则将该子树替换为叶结点。

后剪枝的思路很直接,对于决策树中的每一个非叶子结点的子树,我们尝试着把它替换成一个叶子结点,该叶子结点的类别我们用子树所覆盖训练样本中存在最多的那个类来代替,这样就产生了一个简化决策树,然后比较这两个决策树在测试数据集中的表现,如果简化决策树在验证数据集中的准确率有所提高,那么该子树就可以替换成叶子结点。该算法以bottom-up的方式遍历所有的子树,直至没有任何子树可以替换使得测试数据集的表现得以改进时,算法就可以终止。

从后剪枝的流程可以看出,后剪枝是从全局的角度来看待要不要剪枝,所以造成欠拟合现象的可能性比较小。但由于后剪枝需要先生成完整的决策树,然后再剪枝,所以后剪枝的训练时间开销更高。

编程要求

填写fit(self, train_feature, train_label, val_featrue, val_label)函数,实现带后剪枝ID3算法,要求决策树保存在self.tree中。其中:

  • train_feature:训练集数据,类型为ndarray,数值全为整数;
  • train_label:训练集标签,类型为ndarray,数值全为整数;
  • val_feature:验证集数据,类型为ndarray,数值全为整数;
  • val_label:验证集标签,类型为ndarray,数值全为整数。

填写predict(self, feature)函数,实现预测功能,并将标签返回,其中:

  • feature:测试集数据,类型为ndarray,数值全为整数。(PS:feature中有多条数据)

测试说明

只需完成fitpredict函数即可,程序内部会调用您所完成的fit函数构建模型并调用predict函数来对数据进行预测。预测的准确率高于0.935视为过关。(PS:若self.tree is None则会打印决策树构建失败)

  1. import numpy as np
  2. from copy import deepcopy
  3. class DecisionTree(object):
  4. def __init__(self):
  5. #决策树模型
  6. self.tree = { }
  7. def calcInfoGain(self, feature, label, index):
  8. ''' 计算信息增益 :param feature:测试用例中字典里的feature,类型为ndarray :param label:测试用例中字典里的label,类型为ndarray :param index:测试用例中字典里的index,即feature部分特征列的索引。该索引指的是feature中第几个特征,如index:0表示使用第一个特征来计算信息增益。 :return:信息增益,类型float '''
  9. # 计算熵
  10. def calcInfoEntropy(feature, label):
  11. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :return:信息熵,类型float '''
  12. label_set = set(label)
  13. result = 0
  14. for l in label_set:
  15. count = 0
  16. for j in range(len(label)):
  17. if label[j] == l:
  18. count += 1
  19. # 计算标签在数据集中出现的概率
  20. p = count / len(label)
  21. # 计算熵
  22. result -= p * np.log2(p)
  23. return result
  24. # 计算条件熵
  25. def calcHDA(feature, label, index, value):
  26. ''' 计算信息熵 :param feature:数据集中的特征,类型为ndarray :param label:数据集中的标签,类型为ndarray :param index:需要使用的特征列索引,类型为int :param value:index所表示的特征列中需要考察的特征值,类型为int :return:信息熵,类型float '''
  27. count = 0
  28. # sub_feature和sub_label表示根据特征列和特征值分割出的子数据集中的特征和标签
  29. sub_feature = []
  30. sub_label = []
  31. for i in range(len(feature)):
  32. if feature[i][index] == value:
  33. count += 1
  34. sub_feature.append(feature[i])
  35. sub_label.append(label[i])
  36. pHA = count / len(feature)
  37. e = calcInfoEntropy(sub_feature, sub_label)
  38. return pHA * e
  39. base_e = calcInfoEntropy(feature, label)
  40. f = np.array(feature)
  41. # 得到指定特征列的值的集合
  42. f_set = set(f[:, index])
  43. sum_HDA = 0
  44. # 计算条件熵
  45. for value in f_set:
  46. sum_HDA += calcHDA(feature, label, index, value)
  47. # 计算信息增益
  48. return base_e - sum_HDA
  49. # 获得信息增益最高的特征
  50. def getBestFeature(self, feature, label):
  51. max_infogain = 0
  52. best_feature = 0
  53. for i in range(len(feature[0])):
  54. infogain = self.calcInfoGain(feature, label, i)
  55. if infogain > max_infogain:
  56. max_infogain = infogain
  57. best_feature = i
  58. return best_feature
  59. # 计算验证集准确率
  60. def calc_acc_val(self, the_tree, val_feature, val_label):
  61. result = []
  62. def classify(tree, feature):
  63. if not isinstance(tree, dict):
  64. return tree
  65. t_index, t_value = list(tree.items())[0]
  66. f_value = feature[t_index]
  67. if isinstance(t_value, dict):
  68. classLabel = classify(tree[t_index][f_value], feature)
  69. return classLabel
  70. else:
  71. return t_value
  72. for f in val_feature:
  73. result.append(classify(the_tree, f))
  74. result = np.array(result)
  75. return np.mean(result == val_label)
  76. def createTree(self, train_feature, train_label):
  77. # 样本里都是同一个label没必要继续分叉了
  78. if len(set(train_label)) == 1:
  79. return train_label[0]
  80. # 样本中只有一个特征或者所有样本的特征都一样的话就看哪个label的票数高
  81. if len(train_feature[0]) == 1 or len(np.unique(train_feature, axis=0)) == 1:
  82. vote = { }
  83. for l in train_label:
  84. if l in vote.keys():
  85. vote[l] += 1
  86. else:
  87. vote[l] = 1
  88. max_count = 0
  89. vote_label = None
  90. for k, v in vote.items():
  91. if v > max_count:
  92. max_count = v
  93. vote_label = k
  94. return vote_label
  95. # 根据信息增益拿到特征的索引
  96. best_feature = self.getBestFeature(train_feature, train_label)
  97. tree = { best_feature: { }}
  98. f = np.array(train_feature)
  99. # 拿到bestfeature的所有特征值
  100. f_set = set(f[:, best_feature])
  101. # 构建对应特征值的子样本集sub_feature, sub_label
  102. for v in f_set:
  103. sub_feature = []
  104. sub_label = []
  105. for i in range(len(train_feature)):
  106. if train_feature[i][best_feature] == v:
  107. sub_feature.append(train_feature[i])
  108. sub_label.append(train_label[i])
  109. # 递归构建决策树
  110. tree[best_feature][v] = self.createTree(sub_feature, sub_label)
  111. return tree
  112. # 后剪枝
  113. def post_cut(self, val_feature, val_label):
  114. # 拿到非叶子节点的数量
  115. def get_non_leaf_node_count(tree):
  116. non_leaf_node_path = []
  117. def dfs(tree, path, all_path):
  118. for k in tree.keys():
  119. if isinstance(tree[k], dict):
  120. path.append(k)
  121. dfs(tree[k], path, all_path)
  122. if len(path) > 0:
  123. path.pop()
  124. else:
  125. all_path.append(path[:])
  126. dfs(tree, [], non_leaf_node_path)
  127. unique_non_leaf_node = []
  128. for path in non_leaf_node_path:
  129. isFind = False
  130. for p in unique_non_leaf_node:
  131. if path == p:
  132. isFind = True
  133. break
  134. if not isFind:
  135. unique_non_leaf_node.append(path)
  136. return len(unique_non_leaf_node)
  137. # 拿到树中深度最深的从根节点到非叶子节点的路径
  138. def get_the_most_deep_path(tree):
  139. non_leaf_node_path = []
  140. def dfs(tree, path, all_path):
  141. for k in tree.keys():
  142. if isinstance(tree[k], dict):
  143. path.append(k)
  144. dfs(tree[k], path, all_path)
  145. if len(path) > 0:
  146. path.pop()
  147. else:
  148. all_path.append(path[:])
  149. dfs(tree, [], non_leaf_node_path)
  150. max_depth = 0
  151. result = None
  152. for path in non_leaf_node_path:
  153. if len(path) > max_depth:
  154. max_depth = len(path)
  155. result = path
  156. return result
  157. # 剪枝
  158. def set_vote_label(tree, path, label):
  159. for i in range(len(path)-1):
  160. tree = tree[path[i]]
  161. tree[path[len(path)-1]] = vote_label
  162. acc_before_cut = self.calc_acc_val(self.tree, val_feature, val_label)
  163. # 遍历所有非叶子节点
  164. for _ in range(get_non_leaf_node_count(self.tree)):
  165. path = get_the_most_deep_path(self.tree)
  166. # 备份树
  167. tree = deepcopy(self.tree)
  168. step = deepcopy(tree)
  169. # 跟着路径走
  170. for k in path:
  171. step = step[k]
  172. # 叶子节点中票数最多的标签
  173. vote_label = sorted(step.items(), key=lambda item: item[1], reverse=True)[0][0]
  174. # 在备份的树上剪枝
  175. set_vote_label(tree, path, vote_label)
  176. acc_after_cut = self.calc_acc_val(tree, val_feature, val_label)
  177. # 验证集准确率高于0.9才剪枝
  178. if acc_after_cut > acc_before_cut:
  179. set_vote_label(self.tree, path, vote_label)
  180. acc_before_cut = acc_after_cut
  181. def fit(self, train_feature, train_label, val_feature, val_label):
  182. ''' :param train_feature:训练集数据,类型为ndarray :param train_label:训练集标签,类型为ndarray :param val_feature:验证集数据,类型为ndarray :param val_label:验证集标签,类型为ndarray :return: None '''
  183. #************* Begin ************#
  184. self.tree = self.createTree(train_feature, train_label)
  185. # 后剪枝
  186. self.post_cut(val_feature, val_label)
  187. #************* End **************#
  188. def predict(self, feature):
  189. ''' :param feature:测试集数据,类型为ndarray :return:预测结果,如np.array([0, 1, 2, 2, 1, 0]) '''
  190. #************* Begin ************#
  191. result = []
  192. # 单个样本分类
  193. def classify(tree, feature):
  194. if not isinstance(tree, dict):
  195. return tree
  196. t_index, t_value = list(tree.items())[0]
  197. f_value = feature[t_index]
  198. if isinstance(t_value, dict):
  199. classLabel = classify(tree[t_index][f_value], feature)
  200. return classLabel
  201. else:
  202. return t_value
  203. for f in feature:
  204. result.append(classify(self.tree, f))
  205. return np.array(result)
  206. #************* End **************#

第7关:鸢尾花识别

  • 任务描述
  • 相关知识

    • 数据简介
    • DecisionTreeClassifier
  • 编程要求
  • 测试说明

任务描述

本关任务:使用sklearn完成鸢尾花分类任务。

相关知识

为了完成本关任务,你需要掌握如何使用sklearn提供的DecisionTreeClassifier

数据简介

283552

鸢尾花数据集是一类多重变量分析的数据集。通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(SetosaVersicolourVirginica)三个种类中的哪一类(其中分别用012代替)。

数据集中部分数据与标签如下图所示:

317817

317819

DecisionTreeClassifier

DecisionTreeClassifier的构造函数中有两个常用的参数可以设置:

  • criterion:划分节点时用到的指标。有gini基尼系数),entropy(信息增益)。若不设置,默认为gini
  • max_depth:决策树的最大深度,如果发现模型已经出现过拟合,可以尝试将该参数调小。若不设置,默认为None

sklearn中其他分类器一样,DecisionTreeClassifier类中的fit函数用于训练模型,fit函数有两个向量输入:

  • X:大小为[样本数量,特征数量]ndarray,存放训练样本;
  • Y:值为整型,大小为[样本数量]ndarray,存放训练样本的分类标签。

DecisionTreeClassifier类中的predict函数用于预测,返回预测标签,predict函数有一个向量输入:

  • X:大小为[样本数量,特征数量]ndarray,存放预测样本。

DecisionTreeClassifier的使用代码如下:

  1. from sklearn.tree import DecisionTreeClassifier
  2. clf = tree.DecisionTreeClassifier()
  3. clf.fit(X_train, Y_train)
  4. result = clf.predict(X_test)

编程要求

补充python代码,实现鸢尾花数据的分类任务,其中训练集数据保存在./step7/train_data.csv中,训练集标签保存在。./step7/train_label.csv中,测试集数据保存在。./step7/test_data.csv中。请将对测试集的预测结果保存至。./step7/predict.csv中。这些csv文件可以使用pandas读取与写入。

注意:当使用pandas读取完csv文件后,请将读取到的DataFrame转换成ndarray类型。这样才能正常的使用fitpredict

示例代码:

  1. import pandas as pd
  2. # as_matrix()可以将DataFrame转换成ndarray
  3. # 此时train_df的类型为ndarray而不是DataFrame
  4. train_df = pd.read_csv('train_data.csv').as_matrix()

数据文件格式如下图所示:

317828

标签文件格式如下图所示:

317829

PS:predict.csv文件的格式必须与标签文件格式一致。

测试说明

只需将结果保存至./step7/predict.csv即可,程序内部会检测您的代码,预测准确率高于0.95视为过关。


开始你的任务吧,祝你成功!

  1. #********* Begin *********#
  2. import pandas as pd
  3. from sklearn.tree import DecisionTreeClassifier
  4. train_df = pd.read_csv('./step7/train_data.csv').as_matrix()
  5. train_label = pd.read_csv('./step7/train_label.csv').as_matrix()
  6. test_df = pd.read_csv('./step7/test_data.csv').as_matrix()
  7. dt = DecisionTreeClassifier()
  8. dt.fit(train_df, train_label)
  9. result = dt.predict(test_df)
  10. result = pd.DataFrame({ 'target':result})
  11. result.to_csv('./step7/predict.csv', index=False)
  12. #********* End *********#

发表评论

表情:
评论列表 (有 0 条评论,300人围观)

还没有评论,来说两句吧...

相关阅读

    相关 机器学习-决策

    决策树是常见的机器学习算法。类似于人类在面临决策问题时的自然处理机制,是基于树结构来进行决策的。例如,我们要对“这是好瓜吗?”的问题进行决策,通常会进行一系列的子决策:我们会先

    相关 机器学习基础--决策

    决策树是很基础很经典的一个分类方法,基本上很多工业中很使用且常用的算法基础都是决策树,比如boost,GBDT,CART(分类回归树),我们后需会慢慢分析,决策时定义如下:

    相关 机器学习决策 总结

    具体的细节概念就不提了,这篇blog主要是用来总结一下决策树的要点和注意事项,以及应用一些决策树代码的。 一、决策树的优点: • 易于理解和解释。数可以可视化。也就是说

    相关 机器学习决策

    决策树 【关键词】树,熵,信息增益 决策树的优缺点 优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。既能用于分类,也能用