Skip to content

Commit 4a76df2

Browse files
authored
Merge pull request zergtant#3 from mattmoevil/master
Typos fixed for Chapter 1.
2 parents f3cc6a5 + 2ddc932 commit 4a76df2

7 files changed

+166
-166
lines changed

README.md

Lines changed: 8 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -1,4 +1,4 @@
1-
# PyTorch 中文手册 (pytorch handbook)
1+
# PyTorch 中文手册(pytorch handbook)
22
![pytorch](https://raw.githubusercontent.com/pytorch/pytorch/master/docs/source/_static/img/pytorch-logo-dark.png)
33

44
## 书籍介绍
@@ -40,16 +40,16 @@ API的改动不是很大,本教程已经通过测试,保证能够在1.0中
4040

4141
## 目录
4242

43-
### 第一章: pytorch入门
43+
### 第一章:PyTorch 入门
4444

45-
1. [Pytorch 简介](chapter1/1.1-pytorch-introduction.md)
46-
2. [Pytorch环境搭建](chapter1/1.2-pytorch-installation.md)
47-
3. [PyTorch 深度学习:60分钟快速入门 (官方)](chapter1/1.3-deep-learning-with-pytorch-60-minute-blitz.md)
45+
1. [PyTorch 简介](chapter1/1.1-pytorch-introduction.md)
46+
2. [PyTorch 环境搭建](chapter1/1.2-pytorch-installation.md)
47+
3. [PyTorch 深度学习60分钟快速入门(官方)](chapter1/1.3-deep-learning-with-pytorch-60-minute-blitz.md)
4848
- [张量](chapter1/1_tensor_tutorial.ipynb)
49-
- [Autograd: 自动求导](chapter1/2_autograd_tutorial.ipynb)
49+
- [Autograd自动求导](chapter1/2_autograd_tutorial.ipynb)
5050
- [神经网络](chapter1/3_neural_networks_tutorial.ipynb)
5151
- [训练一个分类器](chapter1/4_cifar10_tutorial.ipynb)
52-
- [选读:数据并行处理(多GPU)](chapter1/5_data_parallel_tutorial.ipynb)
52+
- [选读:数据并行处理多GPU](chapter1/5_data_parallel_tutorial.ipynb)
5353
4. [相关资源介绍](chapter1/1.4-pytorch-resource.md)
5454

5555
### 第二章 基础
@@ -124,4 +124,4 @@ pytorch的优化器总结
124124

125125
![](https://i.creativecommons.org/l/by-nc-sa/3.0/88x31.png)
126126

127-
[本作品采用知识共享署名-非商业性使用-相同方式共享 3.0 中国大陆许可协议进行许可](http://creativecommons.org/licenses/by-nc-sa/3.0/cn)
127+
[本作品采用知识共享署名-非商业性使用-相同方式共享 3.0 中国大陆许可协议进行许可](http://creativecommons.org/licenses/by-nc-sa/3.0/cn)

chapter1/1_tensor_tutorial.ipynb

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -17,10 +17,10 @@
1717
"PyTorch是什么?\n",
1818
"================\n",
1919
"\n",
20-
"基于 python的科学计算包,服务于一下两种场景:\n",
20+
"基于Python的科学计算包,服务于以下两种场景:\n",
2121
"\n",
2222
"- 作为NumPy的替代品,可以使用GPU的强大计算能力\n",
23-
"- 提供最大的灵活性和速度深度学习研究平台\n",
23+
"- 提供最大的灵活性和高速的深度学习研究平台\n",
2424
" \n",
2525
"\n",
2626
"开始\n",
@@ -49,7 +49,7 @@
4949
"cell_type": "markdown",
5050
"metadata": {},
5151
"source": [
52-
"创建一个 a 5x3 矩阵, 但是未初始化:\n",
52+
"创建一个 5x3 矩阵, 但是未初始化:\n",
5353
"\n"
5454
]
5555
},
@@ -228,7 +228,7 @@
228228
"cell_type": "markdown",
229229
"metadata": {},
230230
"source": [
231-
"<div class=\"alert alert-info\"><h4>Note</h4><p>``torch.Size`` 返回值是 tuple类型, 所以他支持tuple类型的所有操作.</p></div>\n",
231+
"<div class=\"alert alert-info\"><h4>Note</h4><p>``torch.Size`` 返回值是 tuple类型, 所以它支持tuple类型的所有操作.</p></div>\n",
232232
"\n",
233233
"操作\n",
234234
"\n",
@@ -360,7 +360,7 @@
360360
"<div class=\"alert alert-info\"><h4>Note</h4><p>任何 以``_`` 结尾的操作都会用结果替换原变量.\n",
361361
" 例如: ``x.copy_(y)``, ``x.t_()``, 都会改变 ``x``.</p></div>\n",
362362
"\n",
363-
"你可以使用与NumPy索引方式方式的操作来进行对张量的操作\n",
363+
"你可以使用与NumPy索引方式相同的操作来进行对张量的操作\n",
364364
"\n"
365365
]
366366
},
@@ -387,7 +387,7 @@
387387
"source": [
388388
"``torch.view``: 可以改变张量的维度和大小\n",
389389
"\n",
390-
"***译者注:torch.view 与Numpy的resharp类似***\n",
390+
"***译者注:torch.view 与Numpy的reshape类似***\n",
391391
"\n"
392392
]
393393
},
@@ -415,7 +415,7 @@
415415
"cell_type": "markdown",
416416
"metadata": {},
417417
"source": [
418-
"如果你有只有一个元素张量,使用``.item()``来得到Python数据类型的数值\n"
418+
"如果你有只有一个元素的张量,使用``.item()``来得到Python数据类型的数值\n"
419419
]
420420
},
421421
{
@@ -567,12 +567,12 @@
567567
"metadata": {},
568568
"source": [
569569
"\n",
570-
"所有的 Tensor 类型默认都事基于CPU, CharTensor 类型不支持到\n",
570+
"所有的 Tensor 类型默认都是基于CPU, CharTensor 类型不支持到\n",
571571
"NumPy 的转换.\n",
572572
"CUDA 张量\n",
573573
"------------\n",
574574
"\n",
575-
"使用``.to`` 方法 可以将Tensor被移动到任何设备中\n",
575+
"使用``.to`` 方法 可以将Tensor移动到任何设备中\n",
576576
"\n"
577577
]
578578
},

chapter1/2_autograd_tutorial.ipynb

Lines changed: 18 additions & 18 deletions
Original file line numberDiff line numberDiff line change
@@ -17,26 +17,26 @@
1717
"Autograd: 自动求导机制\n",
1818
"===================================\n",
1919
"\n",
20-
"PyTorch 中所有神经网络的核心是 ``autograd`` 包.\n",
21-
"我们先简单介绍一下这个包,然后训练第一个简单的神经网络.\n",
20+
"PyTorch 中所有神经网络的核心是 ``autograd`` 包\n",
21+
"我们先简单介绍一下这个包然后训练第一个简单的神经网络\n",
2222
"\n",
23-
"``autograd``包为张量上的所有操作提供了自动求导.\n",
24-
"它是一个在运行时定义的框架,这意味着反向传播是根据你的代码来确定如何运行,并且每次迭代可以是不同的.\n",
23+
"``autograd``包为张量上的所有操作提供了自动求导\n",
24+
"它是一个在运行时定义的框架这意味着反向传播是根据你的代码来确定如何运行并且每次迭代可以是不同的\n",
2525
"\n",
2626
"\n",
2727
"示例\n",
2828
"\n",
2929
"张量(Tensor)\n",
3030
"--------\n",
3131
"\n",
32-
"``torch.Tensor``是这个包的核心类.如果设置\n",
33-
"``.requires_grad`` 为 ``True``, 那么将会追踪多有对于该张量的操作. \n",
34-
"当完成计算后通过调用 ``.backward()``会自动计算所有的梯度.\n",
35-
"这个张量的所有梯度将会自动积累到 ``.grad`` 属性.\n",
32+
"``torch.Tensor``是这个包的核心类如果设置\n",
33+
"``.requires_grad`` 为 ``True``,那么将会追踪所有对于该张量的操作。 \n",
34+
"当完成计算后通过调用 ``.backward()``,自动计算所有的梯度,\n",
35+
"这个张量的所有梯度将会自动积累到 ``.grad`` 属性\n",
3636
"\n",
37-
"要阻止张量跟踪历史记录,可以调用``.detach()``方法将其与计算历史记录分离,并禁止跟踪它将来的计算记录。\n",
37+
"要阻止张量跟踪历史记录,可以调用``.detach()``方法将其与计算历史记录分离,并禁止跟踪它将来的计算记录。\n",
3838
"\n",
39-
"为了防止跟踪历史记录(和使用内存),可以将代码块包装在``with torch.no_grad():``中。\n",
39+
"为了防止跟踪历史记录(和使用内存),可以将代码块包装在``with torch.no_grad():``中。\n",
4040
"在评估模型时特别有用,因为模型可能具有`requires_grad = True`的可训练参数,但是我们不需要梯度计算。\n",
4141
"\n",
4242
"在自动梯度计算中还有另外一个重要的类``Function``.\n",
@@ -48,11 +48,11 @@
4848
"``grad_fn is None``).\n",
4949
"\n",
5050
"``Tensor`` 和 ``Function``互相连接并生成一个非循环图,它表示和存储了完整的计算历史。\n",
51-
"每个张量都有一个``.grad_fn``属性,这个属性引用了一个创建了``Tensor``的``Function``(除非这个张量是用户手动创建的这个张量的\n",
51+
"每个张量都有一个``.grad_fn``属性,这个属性引用了一个创建了``Tensor``的``Function``(除非这个张量是用户手动创建的,即,这个张量的\n",
5252
"``grad_fn`` 是 ``None``)。\n",
5353
"\n",
54-
"如果需要计算导数,你可以在``Tensor``上调用``.backward()``。 \n",
55-
"如果``Tensor``是一个标量(即它包含一个元素数据)则不需要为``backward()``指定任何参数,\n",
54+
"如果需要计算导数,你可以在``Tensor``上调用``.backward()``。 \n",
55+
"如果``Tensor``是一个标量(即它包含一个元素数据)则不需要为``backward()``指定任何参数,\n",
5656
"但是如果它有更多的元素,你需要指定一个``gradient`` 参数来匹配张量的形状。\n"
5757
]
5858
},
@@ -132,7 +132,7 @@
132132
"cell_type": "markdown",
133133
"metadata": {},
134134
"source": [
135-
"结果``y``已经被计算出来了,所以 , ``grad_fn``已经被自动生成了.\n",
135+
"结果``y``已经被计算出来了,所以``grad_fn``已经被自动生成了\n",
136136
"\n"
137137
]
138138
},
@@ -186,8 +186,8 @@
186186
"cell_type": "markdown",
187187
"metadata": {},
188188
"source": [
189-
"``.requires_grad_( ... )`` 改变了现有张量的 ``requires_grad``\n",
190-
".如果没有指定的话,默认输入的flag是 ``False``.\n",
189+
"``.requires_grad_( ... )`` 可以改变现有张量的 ``requires_grad``属性。\n",
190+
"如果没有指定的话,默认输入的flag是 ``False``\n",
191191
"\n"
192192
]
193193
},
@@ -223,7 +223,7 @@
223223
"梯度\n",
224224
"---------\n",
225225
"反向传播\n",
226-
"因为 ``out``是一个纯量(scalar), ``out.backward()`` 等于``out.backward(torch.tensor(1))``.\n",
226+
"因为 ``out``是一个纯量(scalar)``out.backward()`` 等于``out.backward(torch.tensor(1))``\n",
227227
"\n"
228228
]
229229
},
@@ -334,7 +334,7 @@
334334
"cell_type": "markdown",
335335
"metadata": {},
336336
"source": [
337-
"如果``.requires_grad=True``但是你有不希望进行autograd的计算\n",
337+
"如果``.requires_grad=True``但是你又不希望进行autograd的计算\n",
338338
"那么可以将变量包裹在 ``with torch.no_grad()``中:\n"
339339
]
340340
},

0 commit comments

Comments
 (0)