-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
测试时输出回答无法停止,直到256长度限制,loss很快收敛性,到0.82左右就不再下降 #54
Comments
1、training loss下降的慢到后面不下降很正常(因为现在这个lora的setting要训练的参数比较少,同时batch size开的比较大,不过你将batch_size整体开大确实是会收敛的更慢,可以只增大micro_batch_size会跑的快一点),你可以看一下eval loss是否在下降。我们loss大概也是这样的。 8bit是否能在V100上训练这个我因为没直接在上面跑过,确实不太清楚,不过看很多人在8bit上都多少遇到了生成乱码、loss训练炸了等问题。如果方便的话,你可以把你在V100上的训练方案提供给我们。 |
我也会出现在这个问题,13B的fine-tune完成后,没给问题貌似都要在达到256之后才停止,而非语义完整才停止。 |
这个issue可能对你们的问题有所帮助。 |
配置描述:
1、使用了finetune.sh脚本对llama-7b-hf进行finetune
2、
训练的时候使用的是两卡,32gv100, 对fintune.py进行过修改,主要为半精度加载模型训练,改动部分如下
测试的时候,使用的是generate.sh脚本, 没有怎么改动generate.py 文件, 仅仅是将load_in_8bit 改为false。
3、使用的数据集是本github上百度网盘上下载的instruction数据集中的merge.json
问题描述:
3.有几率生成回复的时候会卡死,如下图
补充问题:
在我这里使用v100 双卡训练是没有问题的,我自己也试过使用原来的配置训练开8bit 双卡v100训练,根据bitsandbytes的回复,现在8bit训练是能适配所有显卡的,所以也符合预期,但是训练速度会比半精度慢不少,所以使用finetune.sh的时候我分别将batch_size 和micro_batch_size 增加了四倍训练了一个epoch, 测试之后还是会有上面三个类似的问题。
想请求下大家是否遇到过相似的问题,麻烦指点一下
The text was updated successfully, but these errors were encountered: