-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于finetune_contine.sh报错与使用finetune后的模型输出错误 #45
Comments
@BUPTccy 单卡的时候建议不使用我们脚本中的torchrun,而是直接指定对应gpu后用python命令跑,比如“CUDA_VISIBLE_DEVICES=0 python finetune.py --data_path merge.json --test_size 2000”,你的错误和这个issue是一致的 Q:直接使用finetune.sh会导致中文问题无限输出重复英文字符串且包含{/begin},{/item}等? Q:如果使用finetune_continue是否会有改善? |
感谢您的解答,已在单卡上解决相应问题,期待您的后续方案~ |
你可以参考我们在医学问答的案例medical,目前这个例子因为是从我们已有的checkpoint继续弄的,所以lora不太需要更新。数据规模看你的任务需求和数据质量,不过建议不要太多,太多其实可能从头开始finetune会好一点 |
明白了 感谢 您可以随时关闭此issue |
感谢您的分享,使用过程中出现了一些无法解决的问题,希望向您请教!
使用
bash fintune_continue.sh
在原始merge_sample.json上跑了相应fintune任务报错,设置了TOT_CUDA="0"
,其他参数、数据和原始一致使用
bash finetune.sh
可以正常运行可以确定的是由于加入
--resume_from_checkpoint $lora_checkpoint \
导致的错误,其中lora_checkpoint = "./lora-Vicuna/checkpoint-11600"
我们的目标是用预训练的checkpoint微调到专有领域,但直接使用finetune.sh会导致中文问题无限输出重复英文字符串且包含{/begin},{/item}等,想请问下此种现象是否正常?如果使用finetune_continue是否会有改善?
环境
1、操作系统-CentOS7.6
2、显卡-3090 单张
3、python3.8
4、cuda11.3
报错信息如下:
The text was updated successfully, but these errors were encountered: