-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
使用merge_sample.jsonw做了例子简单训练,生成的checkpoints效果检验不理想 #94
Comments
所以想咨询一下,怎样规模的语料,怎样数量的训练steps,才能避免类似的情况出现?这个应该是工程经验,也是相当宝贵的,看看能否指导一下哈。跟大神学习,膜拜。。。 |
补充下信息:centOS7 python==3.8.16,单机2080ti(11GB) |
再测试了一下,对于上述摘要任务,用给出的checkpoint-final模型,一样是出现如下情况: |
再测试了Chinese-Vicuna-lora-7b-3epoch-belle-and-guanaco这个在huggingface下载的开放模型,发现它的表现跟checkpoint-final一样,自己设置的几个问题表现完全一致。最后的摘要任务也是OOM掉了。。。 |
总结一下想咨询的几个问题: |
对于checkpoint-11600的摘要任务,如何对于文本总结提取效果不佳的时候,也会产生OOM的情况。可以观察到GPU的显存占用不断升高,确实挺头疼的。 |
1、我觉得,你continue_finetune的设置错了吧,可以参考这个文档 |
谢谢指导,我参考下您的医疗问答,尝试做一个古诗词知识服务的训练。 |
你好,使用 bash finetune.sh简单训练了下,以checkpoint-11600为基础,跑了例子程序,正常生成了11800的adapter。
然后启动bash generate.sh进行简单测试,对比原有的11600应答效果,新生成的lora模型存在以下这些问题:
1、回答多数自动给出英文了,这是为啥呢?
2、做摘要任务时,死活都OOM了。如“请用30字总结下文:在我们介绍Transformers之前,我们先了解下NLP主要解决的问题是什么。下面就列出一些常见的NLP任务:句子分类:例如影评的情感分析,检测一封电子邮件是否为垃圾邮件,确定一个句子是否在语法上正确,或者两个句子是否在逻辑上相关。给句子里每个词分类:例如识别句子的语法成分(名词、动词、形容词)或命名实体(人、地点、组织)。内容生成:例如自动写诗,填充句子中的空白。答案抽取:例如给定一个问题和上下文,根据上下文提供的信息提取问题的答案。根据输入生成一个新的句子:例如机器翻译,文本摘要。”,而checkpoint-11600的应答是正常的。
The text was updated successfully, but these errors were encountered: