-
Notifications
You must be signed in to change notification settings - Fork 7.9k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
About the bug of paddleocr running with distributed.launch #13218
Comments
@LDOUBLEV, 老哥你能不能抽时间给它修一下。 |
而且看前面window系统直接返回 |
你们修一下呗 PaddleOCR/tools/infer/utility.py Line 250 in 4336771
主要是和inference的同学确认下 inference Config里的参数设置问题,是不是必须要传入gpu_id;用distributed.launch的能不能跑inference
|
@LDOUBLEV 威威,现在 PaddleOCR 项目,主要是用爱发电在维护。 GreatV 也不是百度的雇员,所以也联系不到 inference 的人。 |
看来是的;想了下,用distrbute.launch并行跑inference不太合适,这个case是一个用户发我的,主要诉求是多卡并行跑ppocr的推理,包装个多进程就能实现,每个卡上都初始化ppocr的inference model 不过这里windows的处理那里还是有bug 也可以加一个警告,告诉用户默认使用第一个卡执行推理 @GreatV |
|
问题描述 / Problem Description
获取gpu id 的地方需要优化,paddle.distributed.launch 多卡调用paddleocr会导致模型只使用第一张卡运行?
运行环境 / Runtime Environment
复现代码 / Reproduction Code
完整报错 / Complete Error Message
可能解决方案 / Possible solutions
附件 / Appendix
The text was updated successfully, but these errors were encountered: