Skip to content

Commit

Permalink
update docs
Browse files Browse the repository at this point in the history
  • Loading branch information
Ligoml committed Mar 31, 2022
1 parent da15f1f commit 82e0ee2
Show file tree
Hide file tree
Showing 4 changed files with 19 additions and 19 deletions.
2 changes: 1 addition & 1 deletion docs/api/paddle/amp/decorate_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -21,6 +21,6 @@ decorate
- **save_dtype** (str|None, 可选) - 网络存储类型,可为float16、float32、float64。通过 ``save_dtype`` 可指定通过 ``paddle.save`` 和 ``paddle.jit.save`` 存储的网络参数数据类型。默认为None,采用现有网络参数类型进行存储。


代码示例
代码示例
:::::::::
COPY-FROM: paddle.amp.decorate
13 changes: 5 additions & 8 deletions docs/api/paddle/io/DataLoader_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -143,10 +143,9 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T
- **drop_last** (bool): 是否丢弃最后的不足CPU/GPU设备数的批次。默认值为True。在网络训练时,用户不能设置drop_last=False,此时所有CPU/GPU设备均应从DataLoader中读取到数据。在网络预测时,用户可以设置drop_last=False,此时最后不足CPU/GPU设备数的批次可以进行预测。

**返回**
被创建的DataLoader对象

**返回类型**
loader (DataLoader)
被创建的DataLoader对象。


**代码示例 1**

Expand Down Expand Up @@ -349,8 +348,7 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T
print("Epoch {} batch {}: loss = {}".format(
epoch_id, batch_id, np.mean(loss.numpy())))
代码示例 3
::::::::::::
**代码示例 3**

.. code-block:: python
Expand Down Expand Up @@ -415,10 +413,9 @@ from_dataset(dataset, places, drop_last=True)
- **drop_last** (bool) - 是否丢弃最后样本数量不足batch size的batch。若drop_last = True则丢弃,若drop_last = False则不丢弃。

**返回**
被创建的DataLoader对象,可以for-range的方式循环迭代

**返回类型**
loader (DataLoader)
被创建的DataLoader对象,可以for-range的方式循环迭代。


**代码示例**

Expand Down
11 changes: 6 additions & 5 deletions docs/api/paddle/io/DistributedBatchSampler_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -56,17 +56,18 @@ DistributedBatchSampler,返回样本下标数组的迭代器。
# do something
break
.. py:function:: set_epoch(epoch)
方法
::::::::::::
set_epoch(epoch)
'''''''''

设置epoch数。当设置``shuffle=True``时,此epoch被用作随机种子。默认情况下,用户可以不用此接口设置,每个epoch时,所有的进程(workers)使用不同的顺序。如果每个epoch设置相同的数字,每个epoch数据的读取顺序将会相同。

参数
::::::::::::
**参数**

- **epoch** (int) - epoch数。

代码示例
::::::::::::
**代码示例**

.. code-block:: python
Expand Down
12 changes: 7 additions & 5 deletions docs/api/paddle/io/IterableDataset_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ IterableDataset

见 ``paddle.io.DataLoader`` 。

代码示例
代码示例 1
::::::::::::

.. code-block:: python
Expand All @@ -42,11 +42,12 @@ IterableDataset
当 ``paddle.io.DataLoader`` 中 ``num_workers > 0`` 时,每个子进程都会遍历全量的数据集返回全量样本,所以数据集会重复 ``num_workers``
次,如果需要数据集样本不会重复返回,可通过如下两种方法避免样本重复,两种方法中都需要通过 ``paddle.io.get_worker_info`` 获取各子进程的信息。

1. 通过 ``__iter__`` 函数划分各子进程的数据

代码示例 1
代码示例 2
::::::::::::

通过 ``__iter__`` 函数划分各子进程的数据

.. code-block:: python
import math
Expand Down Expand Up @@ -86,11 +87,12 @@ IterableDataset
print(data)
# outputs: [2, 5, 3, 6, 4, 7]
2. 通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据
代码示例 2
代码示例 3
::::::::::::

通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据

.. code-block:: python
import math
Expand Down

1 comment on commit 82e0ee2

@paddle-bot-old
Copy link

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Please sign in to comment.