Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于训练和结果复现的疑问 #51

Open
Zhuqln opened this issue Nov 24, 2023 · 2 comments
Open

关于训练和结果复现的疑问 #51

Zhuqln opened this issue Nov 24, 2023 · 2 comments

Comments

@Zhuqln
Copy link

Zhuqln commented Nov 24, 2023

非常有趣的项目!
想和你们探讨两个问题,一是关于训练,二是关于效果复现的问题

首先关于训练,是否能够提供相关的训练细节呢,特别是数据集是否有特别的构造方式呢,在训练中需要给到多少的示例对话呢,是否有一个经验值,而且想知道在微调阶段是基于单轮还是多轮对话呢。

ps. 因为我想复现本地模型的角色扮演能力,但是用自定义角色。所以实际上我需要通过这种微调来确认对于新的角色构建需要怎样的一个路径以及对话创造成本,目前我预计采用13b的模型来做,因为考虑到对未见过知识的更好理解

另一个问题在于,我在使用你们的工程进行效果验证时发现,使用chatglm6b的chat进行推理时,结果是可复现并且正常的。但我在使用stream_chat方法时,结果出现对话重复严重。我很疑惑,不知道你们是否有在意这个问题。

@LC1332
Copy link
Owner

LC1332 commented Nov 29, 2023

我们最近正在构造新的训练数据生成的代码,另外chatglm是会出现重复对话的问题,我打算新模型tuning之后再观察一下

@Zhuqln
Copy link
Author

Zhuqln commented Nov 30, 2023

感谢你的回答,关于提到的新的训练数据构造方法是否意味着和现有的构造存在较大区别呢,还是说思路不变呢

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants