Skip to content

Commit 62b939a

Browse files
authored
Update 3.决策树.md
1 parent dc93db2 commit 62b939a

File tree

1 file changed

+7
-6
lines changed

1 file changed

+7
-6
lines changed

docs/3.决策树.md

Lines changed: 7 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -38,13 +38,13 @@
3838

3939
#### 信息熵 & 信息增益
4040

41-
熵:
42-
熵(entropy)指的是体系的混乱的程度,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。
41+
(entropy)
42+
熵指的是体系的混乱的程度,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。
4343

4444
信息论(information theory)中的熵(香农熵):
4545
是一种信息的度量方式,表示信息的混乱程度,也就是说:信息越有序,信息熵越低。例如:火柴有序放在火柴盒里,熵值很低,相反,熵值很高。
4646

47-
信息增益:
47+
信息增益(information gain)
4848
在划分数据集前后信息发生的变化称为信息增益。
4949

5050
### 决策树 工作原理
@@ -55,7 +55,7 @@
5555
```
5656
def createBranch():
5757
'''
58-
此处运用了迭代的思想。 感兴趣的以搜索 迭代 recursion, 甚至是 dynamic programing。
58+
此处运用了迭代的思想。 感兴趣可以搜索 迭代 recursion, 甚至是 dynamic programing。
5959
'''
6060
检测数据集中的所有数据的分类标签是否相同:
6161
If so return 类标签
@@ -76,7 +76,7 @@ def createBranch():
7676
分析数据:可以使用任何方法,构造树完成之后,我们应该检查图形是否符合预期。
7777
训练算法:构造树的数据结构。
7878
测试算法:使用训练好的树计算错误率。
79-
使用算法:此步骤可以适用于任何监督学习人物,而使用决策树可以更好地理解数据的内在含义。
79+
使用算法:此步骤可以适用于任何监督学习任务,而使用决策树可以更好地理解数据的内在含义。
8080
```
8181

8282
### 决策树 算法特点
@@ -109,7 +109,7 @@ def createBranch():
109109
分析数据:可以使用任何方法,构造树完成之后,我们可以将树画出来。
110110
训练算法:构造树结构
111111
测试算法:使用习得的决策树执行分类
112-
使用算法:此步骤可以适用于任何监督学习算法,而使用决策树可以更好地理解数据的内在含义
112+
使用算法:此步骤可以适用于任何监督学习任务,而使用决策树可以更好地理解数据的内在含义
113113
```
114114

115115
> 收集数据:可以使用任何方法
@@ -202,6 +202,7 @@ def splitDataSet(dataSet, index, value):
202202
print music_media
203203
#结果:
204204
           #[1, 2, 3, [4, 5, 6]]
205+
205206
music_media.extend([7,8,9])
206207
print music_media
207208
#结果:

0 commit comments

Comments
 (0)