-
Notifications
You must be signed in to change notification settings - Fork 5.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
使用v2代码多机运行deepspeech2相关问题 #2920
Comments
paddle.init(use_gpu=False,
pservers="127.0.0.1:7164",
port=7164,
num_gradient_servers=${YOUR TRAINER COUNT},
ports_num=1,
ports_num_for_sparse=1) BTW, 会尽快补上v2多机的文档。 |
非常感谢!之前没有添加init,我试一下~ |
@在init中增加了PServer地址的参数之后还是提示一样的error信息。 补充信息:
Pserver确实在监听指定的端口。 不知道还有没有其他的可能?或者有什么方法可以追踪这个error的具体信息嘛,现在这个error没有别的提示信息不知道怎么调试好~ |
@THUHJ 能贴下你PServer的启动参数么?另外可以把 |
PS启动参数: paddle pserver --num_gradient_servers 1 \
--nics eth0 \
--port 3000 \
--ports_num 1 \
--ports_num_for_sparse 1 trainer = paddle.trainer.SGD(
cost=cost, parameters=parameters, update_equation=optimizer,
is_local=False,
pserver_spec="10.30.40.109:3000")
paddle.init(use_gpu=args.use_gpu, trainer_count=args.trainer_count,
pservers="10.30.40.109:3000",
port=3000,
num_gradient_servers=1,
ports_num=1,
ports_num_for_sparse=1)
train() 本机的ip就是10.30.40.109 |
@THUHJ 目前在创建trainer时先不要使用 |
看到了 @typhoonzero 正在写的多机训练的文档,很赞!#2072 , @THUHJ 欢迎Review相关的文档:) |
问题已经解答,因此关闭issue |
当在使用deepspech2进行多机实验的时候,将trainer = paddle.trainer.SGD的参数修改为is_local=False,同时设置了pserver_spec。在运行的时候提示
RuntimeError之后没有别的内容了。请问这种现象可能是由于什么原因导致的呢?
还是现在多机只能使用像v1的代码吗?似乎没有找到针对v2多机的文档。
The text was updated successfully, but these errors were encountered: