diff --git a/docs/api/paddle/amp/decorate_cn.rst b/docs/api/paddle/amp/decorate_cn.rst index dc20f5c6333..328cc2da10b 100644 --- a/docs/api/paddle/amp/decorate_cn.rst +++ b/docs/api/paddle/amp/decorate_cn.rst @@ -21,6 +21,6 @@ decorate - **save_dtype** (str|None, 可选) - 网络存储类型,可为float16、float32、float64。通过 ``save_dtype`` 可指定通过 ``paddle.save`` 和 ``paddle.jit.save`` 存储的网络参数数据类型。默认为None,采用现有网络参数类型进行存储。 -代码示例: +代码示例 ::::::::: COPY-FROM: paddle.amp.decorate diff --git a/docs/api/paddle/io/DataLoader_cn.rst b/docs/api/paddle/io/DataLoader_cn.rst index d536db63003..3f17a9ffab7 100644 --- a/docs/api/paddle/io/DataLoader_cn.rst +++ b/docs/api/paddle/io/DataLoader_cn.rst @@ -143,10 +143,9 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T - **drop_last** (bool): 是否丢弃最后的不足CPU/GPU设备数的批次。默认值为True。在网络训练时,用户不能设置drop_last=False,此时所有CPU/GPU设备均应从DataLoader中读取到数据。在网络预测时,用户可以设置drop_last=False,此时最后不足CPU/GPU设备数的批次可以进行预测。 **返回** - 被创建的DataLoader对象 -**返回类型** - loader (DataLoader) + 被创建的DataLoader对象。 + **代码示例 1** @@ -349,8 +348,7 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T print("Epoch {} batch {}: loss = {}".format( epoch_id, batch_id, np.mean(loss.numpy()))) -代码示例 3 -:::::::::::: +**代码示例 3** .. code-block:: python @@ -415,10 +413,9 @@ from_dataset(dataset, places, drop_last=True) - **drop_last** (bool) - 是否丢弃最后样本数量不足batch size的batch。若drop_last = True则丢弃,若drop_last = False则不丢弃。 **返回** - 被创建的DataLoader对象,可以for-range的方式循环迭代 -**返回类型** - loader (DataLoader) + 被创建的DataLoader对象,可以for-range的方式循环迭代。 + **代码示例** diff --git a/docs/api/paddle/io/DistributedBatchSampler_cn.rst b/docs/api/paddle/io/DistributedBatchSampler_cn.rst index 77b0a25d8c7..f4db8c15195 100644 --- a/docs/api/paddle/io/DistributedBatchSampler_cn.rst +++ b/docs/api/paddle/io/DistributedBatchSampler_cn.rst @@ -56,17 +56,18 @@ DistributedBatchSampler,返回样本下标数组的迭代器。 # do something break -.. py:function:: set_epoch(epoch) +方法 +:::::::::::: +set_epoch(epoch) +''''''''' 设置epoch数。当设置``shuffle=True``时,此epoch被用作随机种子。默认情况下,用户可以不用此接口设置,每个epoch时,所有的进程(workers)使用不同的顺序。如果每个epoch设置相同的数字,每个epoch数据的读取顺序将会相同。 -参数 -:::::::::::: +**参数** - **epoch** (int) - epoch数。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/io/IterableDataset_cn.rst b/docs/api/paddle/io/IterableDataset_cn.rst index 7302c1e77e7..e490a7785c2 100644 --- a/docs/api/paddle/io/IterableDataset_cn.rst +++ b/docs/api/paddle/io/IterableDataset_cn.rst @@ -16,7 +16,7 @@ IterableDataset 见 ``paddle.io.DataLoader`` 。 -代码示例 +代码示例 1 :::::::::::: .. code-block:: python @@ -42,11 +42,12 @@ IterableDataset 当 ``paddle.io.DataLoader`` 中 ``num_workers > 0`` 时,每个子进程都会遍历全量的数据集返回全量样本,所以数据集会重复 ``num_workers`` 次,如果需要数据集样本不会重复返回,可通过如下两种方法避免样本重复,两种方法中都需要通过 ``paddle.io.get_worker_info`` 获取各子进程的信息。 -1. 通过 ``__iter__`` 函数划分各子进程的数据 -代码示例 1 +代码示例 2 :::::::::::: +通过 ``__iter__`` 函数划分各子进程的数据 + .. code-block:: python import math @@ -86,11 +87,12 @@ IterableDataset print(data) # outputs: [2, 5, 3, 6, 4, 7] -2. 通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据 -代码示例 2 +代码示例 3 :::::::::::: +通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据 + .. code-block:: python import math