-
Notifications
You must be signed in to change notification settings - Fork 444
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
双卡80GiB A100对Qwen2-72B-Instruct进行自我认知微调的最佳实践 #1092
Comments
为什么我微调Qwen2-7B-Instruct,说没有这个id呢? |
--model_type qwen2-7b-instruct |
请教一下用这个命令微调72b完了之后,模型变小了10几G,会有损失吗? |
这只要跑一轮吗 ?如果单独跑一个认知数据呢 ,要多少ecoph啊 |
没有看到多卡的命令或者deepspeed,swift sft 自动分配了吗? @Jintao-Huang |
是的 如果要使用deepspeed的话,加以下参数 |
保存的是lora增量权重 |
使用swift对Qwen2-72B-Chat进行自我认知微调,让模型认为自己是小胡,由魔搭训练。
在开始微调之前,需要进行环境准备:
我们使用swift提供的带模型名字和作者通配符的self-cognition数据集进行自我认知微调,以及使用alpaca-zh、alpaca-en数据集保持模型的通用能力。整个微调过程大约需要30分钟,微调脚本如下:
微调的超参数含义可以参考命令行参数文档:https://github.com/modelscope/swift/blob/main/docs/source/LLM/%E5%91%BD%E4%BB%A4%E8%A1%8C%E5%8F%82%E6%95%B0.md
微调过程的loss可视化:
微调显存占用:
微调后推理脚本如下,这里的ckpt_dir需要修改为微调生成的checkpoint文件夹:
训练后效果:
The text was updated successfully, but these errors were encountered: