这次依然假设我们的数据集太多,无法一次性读入计算机内存(其实CIFAR10数据集可以全部读进内存中)。所以依然需要分批training。我一共使用了10K训练步数,没做data argumentation,学习率0.05,optimizer用的SGD,大概训练了半小时就完成了。在测试集上的表现是78.3%。TensorFlow官网给出了他们的benchmark, 他们用了100K步数,8...
MindSpore目前没有专门的接口把加载上来的数据集转成jpg。如果只要生成一个cifar10jpg格式的数据集的话,或许可以下载cifar10-python版本的数据集,unpickle之后,用cv2或者matplotlib再存成jpg。