forked from shunliz/Machine-Learning
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathid3.md
102 lines (52 loc) · 8.14 KB
/
id3.md
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
# 1. 决策树ID3算法的信息论基础
机器学习算法其实很古老,作为一个码农经常会不停的敲if, else if, else,其实就已经在用到决策树的思想了。只是你有没有想过,有这么多条件,用哪个条件特征先做if,哪个条件特征后做if比较优呢?怎么准确的定量选择这个标准就是决策树机器学习算法的关键了。1970年代,一个叫昆兰的大牛找到了用信息论中的熵来度量决策树的决策选择过程,方法一出,它的简洁和高效就引起了轰动,昆兰把这个算法叫做ID3。下面我们就看看ID3算法是怎么选择特征的。
首先,我们需要熟悉信息论中熵的概念。熵度量了事物的不确定性,越不确定的事物,它的熵就越大。具体的,随机变量X的熵的表达式如下:
$$H(X) = -\sum\limits_{i=1}^{n}p_i logp_i$$
其中n代表X的n种不同的离散取值。而$$p_i$$代表了X取值为i的概率,log为以2或者e为底的对数。举个例子,比如X有2个可能的取值,而这两个取值各为1/2时X的熵最大,此时X具有最大的不确定性。值为$$H(X) = -(\frac{1}{2}log\frac{1}{2} + \frac{1}{2}log\frac{1}{2}) = log2$$。如果一个值概率大于1/2,另一个值概率小于1/2,则不确定性减少,对应的熵也会减少。比如一个概率1/3,一个概率2/3,则对应熵为$$H(X) = -(\frac{1}{3}log\frac{1}{3} + \frac{2}{3}log\frac{2}{3}) = log3 - \frac{2}{3}log2 < log2)$$
熟悉了一个变量X的熵,很容易推广到多个个变量的联合熵,这里给出两个变量X和Y的联合熵表达式:
$$H(X,Y) = -\sum\limits_{i=1}^{n}p(x_i,y_i)logp(x_i,y_i)$$
有了联合熵,又可以得到条件熵的表达式H\(X\|Y\),条件熵类似于条件概率,它度量了我们的X在知道Y以后剩下的不确定性。表达式如下:
$$H(X|Y) = -\sum\limits_{i=1}^{n}p(x_i,y_i)logp(x_i|y_i) = \sum\limits_{j=1}^{n}p(y_j)H(X|y_j)$$
好吧,绕了一大圈,终于可以重新回到ID3算法了。我们刚才提到H\(X\)度量了X的不确定性,条件熵H\(X\|Y\)度量了我们在知道Y以后X剩下的不确定性,那么H\(X\)-H\(X\|Y\)呢?从上面的描述大家可以看出,它度量了X在知道Y以后不确定性减少程度,这个度量我们在信息论中称为互信息,,记为I\(X,Y\)。在决策树ID3算法中叫做信息增益。ID3算法就是用信息增益来判断当前节点应该用什么特征来构建决策树。信息增益大,则越适合用来分类。
上面一堆概念,大家估计比较晕,用下面这个图很容易明白他们的关系。左边的椭圆代表H\(X\),右边的椭圆代表H\(Y\),中间重合的部分就是我们的互信息或者信息增益I\(X,Y\), 左边的椭圆去掉重合部分就是H\(X\|Y\),右边的椭圆去掉重合部分就是H\(Y\|X\)。两个椭圆的并就是H\(X,Y\)。
![](http://images2015.cnblogs.com/blog/1042406/201611/1042406-20161110123427608-582642065.png)
# 2. 决策树ID3算法的思路
上面提到ID3算法就是用信息增益大小来判断当前节点应该用什么特征来构建决策树,用计算出的信息增益最大的特征来建立决策树的当前节点。这里我们举一个信息增益计算的具体的例子。比如我们有15个样本D,输出为0或者1。其中有9个输出为0, 6个输出为1。 样本中有个特征A,取值为A1,A2和A3。在取值为A1的样本的输出中,有3个输出为1, 2个输出为0,取值为A2的样本输出中,2个输出为1,3个输出为0, 在取值为A3的样本中,4个输出为1,1个输出为0.
样本D的熵为:$$H(D) = -(\frac{9}{15}log_2\frac{9}{15} + \frac{6}{15}log_2\frac{6}{15}) = 0.971$$
样本D在特征下的条件熵为: $$H(D|A) = \frac{5}{15}H(D1) + \frac{5}{15}H(D2) + \frac{5}{15}H(D3)$$
$$= -\frac{5}{15}(\frac{3}{5}log_2\frac{3}{5} + \frac{2}{5}log_2\frac{2}{5}) - \frac{5}{15}(\frac{2}{5}log_2\frac{2}{5} + \frac{3}{5}log_2\frac{3}{5}) -\frac{5}{15}(\frac{4}{5}log_2\frac{4}{5} + \frac{1}{5}log_2\frac{1}{5}) = 0.888$$
对应的信息增益为$$I(D,A) = H(D) - H(D|A) = 0.083$$
下面我们看看具体算法过程大概是怎么样的。
输入的是m个样本,样本输出集合为D,每个样本有n个离散特征,特征集合即为A,输出为决策树T。
算法的过程为:
1\)初始化信息增益的阈值ϵ
2)判断样本是否为同一类输出Di,如果是则返回单节点树T。标记类别为Di
3\) 判断特征是否为空,如果是则返回单节点树T,标记类别为样本中输出类别D实例数最多的类别。
4)计算A中的各个特征(一共n个)对输出D的信息增益,选择信息增益最大的特征Ag
5\) 如果Ag的信息增益小于阈值ϵ,则返回单节点树T,标记类别为样本中输出类别D实例数最多的类别。
6)否则,按特征Ag的不同取值Agi将对应的样本输出D分成不同的类别Di。每个类别产生一个子节点。对应特征值为Agi。返回增加了节点的数T。
7)对于所有的子节点,令D=Di,A=A−{Ag}递归调用2-6步,得到子树Ti并返回。
# 3. 决策树ID3算法的不足
ID3算法虽然提出了新思路,但是还是有很多值得改进的地方。
a\)ID3没有考虑连续特征,比如长度,密度都是连续值,无法在ID3运用。这大大限制了ID3的用途。
b\)ID3采用信息增益大的特征优先建立决策树的节点。很快就被人发现,在相同条件下,取值比较多的特征比取值少的特征信息增益大。比如一个变量有2个值,各为1/2,另一个变量为3个值,各为1/3,其实他们都是完全不确定的变量,但是取3个值的比取2个值的信息增益大。如果校正这个问题呢?
c\) ID3算法对于缺失值的情况没有做考虑
d\) 没有考虑过拟合的问题
ID3 算法的作者昆兰基于上述不足,对ID3算法做了改进,这就是C4.5算法,也许你会问,为什么不叫ID4,ID5之类的名字呢?那是因为决策树太火爆,他的ID3一出来,别人二次创新,很快 就占了ID4, ID5,所以他另辟蹊径,取名C4.0算法,后来的进化版为C4.5算法。下面我们就来聊下C4.5算法
# 4. 示例说明
![](http://img.blog.csdn.net/20160425192843337?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
上面的训练集有4个属性,即属性集合A={OUTLOOK, TEMPERATURE, HUMIDITY, WINDY};而类标签有2个,即类标签集合C={Yes, No},分别表示适合户外运动和不适合户外运动,其实是一个二分类问题。
我们已经计算过信息增益,这里直接列出来,如下所示:
数据集D包含14个训练样本,其中属于类别“Yes”的有9个,属于类别“No”的有5个,则计算其信息熵:
H\(D\) = -9/14 \* log2\(9/14\) - 5/14 \* log2\(5/14\) = 0.940
下面对属性集中每个属性分别计算信息熵,如下所示:
H\(D\|OUTLOOK\) = 5/14 \* \[- 2/5 \* log2\(2/5\) – 3/5 \* log2\(3/5\)\] + 4/14 \* \[ - 4/4 \* log2\(4/4\) - 0/4 \* log2\(0/4\)\] + 5/14 \* \[ - 3/5 \* log2\(3/5\) – 2/5 \* log2\(2/5\)\] = 0.694
H\(D\|TEMPERATURE\) = 4/14 \* \[- 2/4 \* log2\(2/4\) – 2/4 \* log2\(2/4\)\] + 6/14 \* \[ - 4/6 \* log2\(4/6\) - 2/6 \* log2\(2/6\)\] + 4/14 \* \[ - 3/4 \* log2\(3/4\) – 1/4 \* log2\(1/4\)\] = 0.911
Info\(D\|HUMIDITY\) = 7/14 \* \[- 3/7 \* log2\(3/7\) – 4/7 \* log2\(4/7\)\] + 7/14 \* \[ - 6/7 \* log2\(6/7\) - 1/7 \* log2\(1/7\)\] = 0.789
Info\(D\|WINDY\) = 6/14 \* \[- 3/6 \* log2\(3/6\) – 3/6 \* log2\(3/6\)\] + 8/14 \* \[ - 6/8 \* log2\(6/8\) - 2/8 \* log2\(2/8\)\] = 0.892
根据上面的数据,我们可以计算选择第一个根结点所依赖的信息增益值,计算如下所示:
I\(D, OUTLOOK\) = H\(D\) - H\(D\|OUTLOOK\) = 0.940 - 0.694 = 0.246
I\(D, TEMPERATURE\) = H\(D\) - H\(D\|TEMPERATURE\) = 0.940 - 0.911 = 0.029
I\(D, HUMIDITY\) = H\(D\) - Info\(D\|HUMIDITY\) = 0.940 - 0.789 = 0.151
I\(D, WINDY\) = H\(D\) - H\(D\|WINDY\) = 0.940 - 0.892 = 0.048
可以看出第一次决策应该以OUTLOOK属性为参考,然后根据OUTLOOK属性将数据集分为三个子集,把三个子集和剩余的属性代入递归的计算,继而求得第二次的分裂属性,依次类推即可