在安装好paddlepaddle
及paddlerec
后,可以直接使用一行命令快速启动内置模型的默认配置训练,命令如下;
python -m paddlerec.run -m models/xxx/yyy/config.yaml
注意事项:
- 请确保调用的是安装了paddlerec的
python
环境 xxx
为paddlerec.models下有多个大类,如:recall
/rank
/rerank
等yyy
为每个类别下又有多个模型,如recall
下有:gnn
/grup4rec
/ncf
等
例如启动recall
下的word2vec
模型的默认配置;
python -m paddlerec.run -m models/recall/word2vec/config.yaml
如果我们修改了默认模型的config.yaml文件,怎么运行修改后的模型呢?
-
没有改动模型组网
假如你将paddlerec代码库克隆在了
/home/PaddleRec
,并修改了/home/PaddleRec/models/rank/dnn/config.yaml
,则如下启动训练python -m paddlerec.run -m /home/PaddleRec/models/rank/dnn/config.yaml
paddlerec 运行的是在paddlerec库安装目录下的组网文件(model.py),但个性化配置
config.yaml
是用的是指定路径下的yaml文件。 -
改动了模型组网
假如你将paddlerec代码库克隆在了
/home/PaddleRec
,并修改了/home/PaddleRec/models/rank/dnn/model.py
, 以及/home/PaddleRec/models/rank/dnn/config.yaml
,则首先需要更改yaml
中的workspace
的设置:workspace: /home/PaddleRec/models/rank/dnn/
再执行:
python -m paddlerec.run -m /home/PaddleRec/models/rank/dnn/config.yaml
paddlerec 运行的是绝对路径下的组网文件(model.py)以及个性化配置文件(config.yaml)
config.yaml
中训练流程相关有两个重要的逻辑概念,runner
与phase
:
runner
: runner是训练的引擎,亦可称之为运行器,在runner中定义执行设备(cpu、gpu),执行的模式(训练、预测、单机、多机等),以及运行的超参,例如训练轮数,模型保存地址等。phase
: phase是训练中的阶段的概念,是引擎具体执行的内容,该内容是指:具体运行哪个模型文件,使用哪个reader。
PaddleRec每次运行时,会执行一个或多个运行器,通过mode
指定runner
的名字。每个运行器可以执行一个或多个phase
,所以PaddleRec支持一键启动多阶段的训练。
下面我们开始定义一个单机CPU训练的runner
:
mode: single_cpu_train # 执行名为 single_cpu_train 的运行器
# mode 也支持多个runner的执行,此处可以改为 mode: [single_cpu_train, single_cpu_infer]
runner:
- name: single_cpu_train # 定义 runner 名为 single_cpu_train
class: train # 执行单机训练
device: cpu # 执行在 cpu 上
epochs: 10 # 训练轮数
save_checkpoint_interval: 2 # 每隔2轮保存一次checkpoint
save_inference_interval: 4 # 每隔4轮保存一次inference model
save_checkpoint_path: "increment" # checkpoint 的保存地址
save_inference_path: "inference" # inference model 的保存地址
save_inference_feed_varnames: [] # inference model 的feed参数的名字
save_inference_fetch_varnames: [] # inference model 的fetch参数的名字
init_model_path: "" # 如果是加载模型热启,则可以指定初始化模型的地址
print_interval: 10 # 训练信息的打印间隔,以batch为单位
phases: [phase_train] # 若没有指定phases,则会默认运行所有phase
# phase 也支持自定多个phase的执行,此处可以改为 phases: [phase_train, phase_infer]
再定义具体的执行内容:
phase:
- name: phase_train # 该阶段名为 phase1
model: "{workspace}/model.py" # 模型文件为workspace下的model.py
dataset_name: dataset_train # reader的名字
dataset:
- name: dataset_train
type: DataLoader # 使用DataLoader的数据读取方式
batch_size: 2
data_path: "{workspace}/train_data" # 数据地址
sparse_slots: "click 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26" # sparse 输入的位置定义
dense_slots: "dense_var:13" # dense参数的维度定义
具体执行内容与reader与前述相同,下面介绍需要改动的地方
mode: single_gpu_train # 执行名为 single_gpu_train 的运行器
runner:
- name: single_gpu_train # 定义 runner 名为 single_gpu_train
class: train # 执行单机训练
device: gpu # 执行在 gpu 上
selected_gpus: "0" # 默认选择在id=0的卡上执行训练
epochs: 10 # 训练轮数
具体执行内容与reader与前述相同,下面介绍需要改动的地方
mode: single_multi_gpu_train # 执行名为 single_multi_gpu_train 的运行器
runner:
- name: single_multi_gpu_train # 定义 runner 名为 single_multi_gpu_train
class: train # 执行单机训练
device: gpu # 执行在 gpu 上
selected_gpus: "0,1,2,3" # 选择多卡执行训练
epochs: 10 # 训练轮数
具体执行内容与reader与前述相同,下面介绍需要改动的地方
mode: local_cluster_cpu_train # 执行名为 local_cluster_cpu_train 的运行器
runner:
- name: local_cluster_cpu_train # 定义 runner 名为 runner_train
class: local_cluster_train # 执行本地模拟分布式——参数服务器训练
device: cpu # 执行在 cpu 上(paddle后续版本会支持PS-GPU)
worker_num: 1 # (可选)worker进程数量,默认1
server_num: 1 # (可选)server进程数量,默认1
epochs: 10 # 训练轮数