可以,测试的时候设置大于1的batch size可以加快inference速度,且且且,用多卡的话,速度体验更佳~
一般来说,建议batch-size在测试的时候,和训练的size保持一致,这样更有可能找到最低点 ...
如果当前的显存只能允许训练batch size为512的模型,通过提升batch size可以一定程度上提升精度,那么如何在资源有限的情况下训练batch size 为1024的模型呢? 在实现上可以这样,首先构建额外的参数来记录梯度值,在训练的时候将每一步计算得到的梯度值加到里面,当达到预先设置的累积次数的时候,再一次性的进行梯度更新。这...
看起来和cpu_num没有什么关系,提示的错误是feed的数据size不一致。你看下官方的mnist是怎么配置的吧 ...
可以,测试的时候设置大于1的batch size 可以加快inference速度,且且且,用多卡的话,速度体验更佳~