在pytorch的多卡训练中,这是所有卡总的batchsize;而在paddle中,设置的是单卡的batchsize,因此使用脚本任务四卡训练时,应该把batchsize设为128,这样总的batchsize才是128×4=512。 关于多卡并行训练:多卡分布式训练时,数据处理部分需要加上distributebatchsampler,这样相当于把数据分到多个卡上训练,否则其实就是每个卡...