-
Notifications
You must be signed in to change notification settings - Fork 43
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请教关于 batch_size 的设定问题 #51
Comments
感谢您对我们工作的关注!
祝好, |
感谢您的回复,还有几个问题向您请教:
感谢您不吝赐教,非常感谢! |
您好,
祝好, |
非常感谢!但是我还是有点不明白,希望得到师兄的进一步指导: 对于问题 2,我使用您提供的PSPNet权重 基础上又训练了100个epoch,但是miou只有0.5左右。在此基础上训练整个小样本网络,miou 0.4+。这很奇怪,不知道为啥。 对于问题3,如果不单独再训练的话,怎么得出在其它 split 上的结果呢?我的意思是对于每一个 split(split和fold是一个概念吗),是否需要将stage1、stage2的训练过程都进行一遍。也就是split=0 1 2 3,因此需要训练四次,这样才能得到您论文中 Fold-0 Fold-1 Fold-2 Fold-3 四个结果? |
您好,
|
不同split间没有联系,可以简单地将它们认为是不同的数据集。 |
非常感谢您的工作!
配置文件中的 “batch_size: 4 # batch size for training (bs12 for 1GPU)” ,请问这里设定的batch_size是一张卡的量吗?
我设定 batch_size: 8 --nproc_per_node=8,可以占满8张 2080 Ti。
但是 batch_size: 64(8x8) --nproc_per_node=8,显存就不足了。
但是 torch.utils.data.DataLoader()传入的 batch_size 不应该是总数,即 8x8=64 吗?
期待您的指教,谢谢!
The text was updated successfully, but these errors were encountered: