用的 pytorch 多GPU的数据并行方法 DataParallel ,这老出错

原 batch_size 我设的 8,用的3块GPU,谷歌到该 github issue

https://github.com/Eromera/erfnet_pytorch/issues/2

然后 batch_size 设为 9 目前能跑通

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐