-
Notifications
You must be signed in to change notification settings - Fork 419
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
RuntimeError: shape '[-1, 32001]' is invalid for input of size 32640000 #85
Comments
能给出更详细一点的报错信息吗,不过我猜测你应该是加载了别人的模型?你可以参考一下类似的issue |
双卡,RTX3090: if not args.wandb: |
就是你运行脚本之类的都没改过吗? |
没有改,基础模型就是LLAma-7b |
你只给了这个报错信息,我只能判断你模型使用的tokenzier和我们使用的tokenzier不一致。你可以参考我们issue提问模板进行提问,或者参考一下别人是怎么提问的。 |
/root/anaconda3/lib/python3.9/site-packages/transformers/optimization.py:391: FutureWarning: This implementation of AdamW is deprecated and will be removed in a future version. Use the PyTorch implementation torch.optim.AdamW instead, or set no_deprecation_warning=True to disable this warning |
你可以去跑一下这里面的第三个问题的程序,看看能不能正常输出 |
兄弟,你要是还没解决的话,可以加一下我们在主页上提供的qq群或者discord群 |
还没有解决这一个问题 |
主要是你描述不清楚你的问题,我很难复现出你的问题 |
就是跑你程序报一上的错误 |
兄弟,环境、机器、各种库的依赖等等各种因素都不一样的。我们把各种代码配置都贴出来了,你都不能保证完美复现我们的东西,你就描述一个报错信息我要怎么复现你的错误? |
我昨天下午,将13B模型训练,TEST_SIZE=200,运行了1天好像没有什么可以跑,不知道为什么7B模型训练,TEST_SIZE=1000,词表越界问题? |
13B模型很慢 |
可能是模型自己的问题,llama那边的tokenizer改过好几次,transformers中llama的代码也改过好几次 |
有可能是初始模型LLaMA-7b文件有问题,现在换了vicuna-7b-delta-v0也可以用了 |
你llama-7b是从huggingface拉去的吗,从huggingface拉去,如果transformers版本和我们差不多的话应该是不会有这个问题的,transformers版本可以4.28.1 |
是从huggingface拉去的,transformers版本是4.28.0dev0 |
运行generate.sh后一直报model为NoneType #111 Successfully installed peft-0.3.0.dev0 |
bash generate.sh |
peft to 0.2.0 ,bash generate.sh, warnings.warn(value) |
Hi,
RuntimeError: shape '[-1, 32001]' is invalid for input of size 32640000
请问是什么问题?
The text was updated successfully, but these errors were encountered: