-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于继续训练(continue finetuning) #38
Comments
@creamiracle 感谢关注。目前我们只提供了一个可以continue finetuning的接口,由于人手比较少,最近也比较忙,暂时没有在垂直领域试过。由于我们使用的是lora,理论上在垂直语料finetune过后是会挖掘llama本身在这个语料上的能力,是可以得到一个垂直语料的模型,不过对于一些没掌握的知识可能掌握的不会很理想 我们后续将给出在垂直语料上训练的详细方案。 |
你可以参考我们在医学问答的案例medical |
感谢回复,根据这个新的doc,还有几个问题想请教一下: |
1、这个是用于生成的参数,在generate那些推理脚本那种有 |
好的谢谢,前面我都理解了,第三个的意思是先复制20w成为70w然后再继续训练么?那为什么不能在20w上只训练一个epoch呢? |
1、不是先复制成20w(因为我们医疗问答的规模就是20w),是直接复制成70w |
您好,我理解了,那如果我按照您的方式继续训练,也需要变成70w的数据,是这个意思吧? |
是的,如果不到70w会自动重复拼接到70w(并没有显式的拼接,而是重复了70w训练的step) |
这个自动重复拼接到70w的原理是什么呢,我对这部分不是很熟悉?烦请您解答一下,谢谢。 |
就是重复训练这段数据,相当于在时间上拼接 |
那就是说如果直接用这20w数据继续训练,不去复制,应该也不会报错吧 |
是的 |
你好,感谢分享。
是否可以理解为,在垂类应用上,构造好预料,替换sh中的data_path,然后运行sh文件就能在你们分享的模型权重下继续进行训练,以得到一个应用于上述垂类语料中的模型呢?
谢谢
The text was updated successfully, but these errors were encountered: