Skip to content

Commit

Permalink
括号替换为英文的
Browse files Browse the repository at this point in the history
  • Loading branch information
wizardforcel committed Apr 16, 2018
1 parent 56b69fa commit c97d0d3
Showing 1 changed file with 7 additions and 7 deletions.
14 changes: 7 additions & 7 deletions example/tutorials/beginner/deep_learning_60min_bltiz.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -20,7 +20,7 @@
"\n",
"### Tensors(张量)\n",
"\n",
"Tensor 是 PyTorch 中重要的数据结构, 可认为是一个高维数组. 它可以是一个数(标量)、一维数组(向量)、二维数组(矩阵)以及更高维的数组. Tensor 和 Numpy 的 ndarrays 类似, 但 Tensor 可以使用 GPU 进行加速. Tensor 的使用和 Numpy 及 Matlab 的接口十分相似, 下面通过几个例子来看看 Tensor 的基本使用. "
"Tensor 是 PyTorch 中重要的数据结构, 可认为是一个高维数组. 它可以是一个数 (标量) 、一维数组 (向量) 、二维数组 (矩阵) 以及更高维的数组. Tensor 和 Numpy 的 ndarrays 类似, 但 Tensor 可以使用 GPU 进行加速. Tensor 的使用和 Numpy 及 Matlab 的接口十分相似, 下面通过几个例子来看看 Tensor 的基本使用. "
]
},
{
Expand Down Expand Up @@ -490,14 +490,14 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"### Variable(变量)"
"### Variable (变量) "
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"autograd.Variable 是包的核心类, 它包装了张量, 并且支持几乎所有的操作. 一旦你完成了你的计算, 你就可以调用 .backward() 方法, 然后所有的梯度计算会自动进行.你还可以通过 .data 属性来访问原始的张量, 而关于该 variable(变量)的梯度会被累计到 .grad 上去."
"autograd.Variable 是包的核心类, 它包装了张量, 并且支持几乎所有的操作. 一旦你完成了你的计算, 你就可以调用 .backward() 方法, 然后所有的梯度计算会自动进行.你还可以通过 .data 属性来访问原始的张量, 而关于该 variable (变量) 的梯度会被累计到 .grad 上去."
]
},
{
Expand All @@ -514,7 +514,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"如果你想计算倒数, 你可以在 Variable 上调用 .backward() 方法. 如果 Variable 是标量的形式例如, 它包含一个元素数据, 你不必指定任何参数给 backward(), 但是, 如果它有更多的元素. 你需要去指定一个 grad_output 参数, 该参数是一个匹配 shape(形状)的张量."
"如果你想计算倒数, 你可以在 Variable 上调用 .backward() 方法. 如果 Variable 是标量的形式 (例如, 它包含一个元素数据) , 你不必指定任何参数给 backward(), 但是, 如果它有更多的元素. 你需要去指定一个 grad_output 参数, 该参数是一个匹配 shape (形状) 的张量."
]
},
{
Expand Down Expand Up @@ -1129,7 +1129,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"### 3.优化器更新权重"
"### 3.优化器 (更新权重) "
]
},
{
Expand Down Expand Up @@ -1160,7 +1160,7 @@
"optimizer = optim.SGD(net.parameters(),lr = 0.01)\n",
"\n",
"#在训练过程中\n",
"#先将梯度清零与net.zero_grad()效果一样\n",
"#先将梯度清零 (与net.zero_grad()效果一样) \n",
"optimizer.zero_grad()\n",
"\n",
"#计算损失\n",
Expand Down Expand Up @@ -1561,7 +1561,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"此处仅训练了 2 个 epoch遍历完一遍数据集称为一个 epoch , 来看看网络有没有效果. 将测试图片输入到网络中, 计算它的 label , 然后与实际的 label 进行比较. "
"此处仅训练了 2 个 epoch (遍历完一遍数据集称为一个 epoch ) , 来看看网络有没有效果. 将测试图片输入到网络中, 计算它的 label , 然后与实际的 label 进行比较. "
]
},
{
Expand Down

0 comments on commit c97d0d3

Please sign in to comment.