-
Notifications
You must be signed in to change notification settings - Fork 99
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
推理速度超级慢?! #48
Comments
如果你需要debug帮助,希望你可以提供:
|
我也是,推理速度才 2.58it/s , 用的 是app.py 的推理脚本, T4 ,torch.cuda.available() 返回True |
Guessed Channel Layout for Input Stream #0.0 : stereo |
T4上这个速度是正常的,svc的模型本身参数也更多 |
我也是运行的app.py这个脚本 我是v100的gpu 速度也很慢 |
You can uninstall torch torchvision torchaudio. And then install as |
not work for me ,but thx~ |
另外一个文本转语音的开源项目使用了融合cuda技术来实现推理加速,这个项目是否能够探索一下使用这个技术的可行性。 https://github.com/fishaudio/fish-speech/blob/main/docs/zh/inference.md |
只有linux能用compile, windows不可以 |
那个项目我也在Windows上尝试了一下,但是在compile的时候报了语法错误,不过我目前还是认为是我的cuda环境配置问题引起的。 |
不是你的环境问题,是因为triton本身没有windows的GPU构筑,所以本质上是不可行的,详细请自己看torch.compile的文档 |
现在增添了默认开启fp16推理,大概能提速一倍 |
我用的是4090,但是GPU只用了一点点,效果很棒,但是推理速度太慢了。是之前使用rvc模型推理时间的100倍都不止……是我哪里用错了吗?
The text was updated successfully, but these errors were encountered: