-
Notifications
You must be signed in to change notification settings - Fork 7.8k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
tensorrt使用相关问题 #5592
Comments
请确保tensorrt安装正确,另外建议用paddle 2.2版本 |
下载安装tensorrt后不再报错 体验反馈: |
好的,感谢反馈,我们会进一步改进 |
关于tensorrt加速问题:
|
你可以for循环连续跑个100次,算一下预测的平均时间 |
@andyjpaddle
真的是没什么区别,望帮忙分析下可能原因 |
从结果来看,你这个加速大概有10%,原因可能和不同的机器配置有关系 |
@andyjpaddle 请问有什么办法可以进一步提高预测速度吗? 参数配置: 其他参数均为默认的,未进行修改。已经在使用是小模型( |
可以考虑用量化后的模型,但是识别精度可能会降一些 |
好的,我都试验下 |
@Biaocsu hello,后面有试验用量化模型吗,性能有提升吗 |
@inewlife 没有,因为他说了量化模型识别精度会下降。先保证精度再解决速度问题吧 |
请提供下述完整信息以便快速定位问题/Please provide the following information to quickly locate the problem
sudo nvidia-docker run --name ppocr -v $PWD:/paddle --shm-size=64G --network=host -it registry.baidubce.com/paddlepaddle/paddle:2.1.3-gpu-cuda11.2-cudnn8 /bin/bash
根据 基于Python引擎的PP-OCR模型库推理 说明,使用
python3 tools/infer/predict_system.py
进行推理时,设置use_tensorrt=True
会出现如下报错:如果
use_tensorrt
设置为默认False
时不会出现问题,但是会太慢。请问这里既然给出了
tensorrt
加速参数,理论是可以使用的,为什么会报错呢?请解答疑惑,多谢The text was updated successfully, but these errors were encountered: