-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
多轮对话,语境,和回复循环的问题 #7
Comments
finetune使用的命令是这样的:
|
@ZenXir Hello,非常感谢你分享自己的训练的结果。 |
同时,确实有模型叫“belle”这个问题,因为belle的数据集中有800多个这样的标签,在学习的时候会将其印进去。如果不进行商用的话可以将语料中belle替换,或者直接训练好后将belle replace掉。 |
明白 感谢大佬老师 类似内容吧,想让模型做到这点,在context里提供文本内容可能会比较大,是不是需要组织语料finetune模型?还有其他更好的方式不大佬老师? |
@ZenXir |
明白大佬老师 我刚用ChatGPT 随便生成了几个问答,finetune了一下 问:在五庄观拜访镇元大仙时 为什么要拜访镇元大仙?答:因为你是一个很好的人。如果问到和语料相同的问题,是不是应该接近原语料的回答? 看到 finetune.py 和 interaction.py 里,是按8bit处理的模型,如果是其他的,效果会好吗?我是新人,辛苦大佬老师了
interaction.py的8bit处理代码:
随便生成的语料:
|
@ZenXir |
大佬老师 我可以加入你们一起开发吗?有什么需要整理的 我帮忙一起弄 |
@ZenXir 项目在开发的过程中难免遇到很多问题,比如各种bug,比如文案说明,比如各种技术的引入。作为一个开源项目,我们欢迎所有的开发者。你可以通过PR的形式为这个开源项目做出贡献。 我们近期的目标会更新在todo list上,如果你有感兴趣的方向也可以参与进来。如果你发现了相关的可以引入的技术,也可以告诉我们。 |
好嘞太好了 我多学习多总结 尽量打好辅助 哈哈
|
网盘过期了,请问数据集可以再分享一下吗 |
大佬老师,我用一台rtx4090机器,周末两天基于llama-13b-hf 和 merge.sjon【网盘里的663M语料】
finetune出来的,刚测试了下,可以用:
效果是这样的:
感觉多轮对话上下文的理解可以让它连贯不?
是不是也可以加上context,描述语境?
回复的内容会循环,这个怎么避免呀大佬老师?
The text was updated successfully, but these errors were encountered: