You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
是我打错了 在exp目录下有checkpoint-16000.pt等等每一千步保存一次。我在
for batch_idx, batch in enumerate(train_dl):
if params.batch_idx_train >= batch_idx:
if batch_idx % 100 == 0:
logging.info(f"Batch index {batch_idx} is reached.")
continue
做了这样的修改,但是根据日志显示在batch index 0 is reached之前模型就已经加载了很久的数据了,打印了很多remove_short_and_long_utt(c: Cut):这个函数滤去的数据。所以我怀疑是不是根据--start-batch已经重新在train_dl中过滤了--start-batch的数据 不需要我加代码中这些跳过的操作
我的模型训练到batch_16000.pt时中断了 我想继续训练 我的脚本这样设置的
./train.py
--world-size 8
--num-epochs 30
--start-batch 16000
--max-duration 40
--num-buckets 100
--on-the-fly-feats true
--exp-dir ./exp
--bpe-model data/lang_bpe_2000/bpe.model
但是模型似乎还是从bacth0继续训练的
我需要在train_one_epoch添加跳过batch的部分吗 其他的部分还需要修改吗??我使用的recipe是librispeech/ASR/pruned_transducer_stateless7
The text was updated successfully, but these errors were encountered: