较小的Batch Size可以使模型在训练过程中更快地适应新的数据分布,有助于避免过拟合,但也可能导致训练过程不稳定。相反,较大的Batch Size可以提高训练速度,但可能会使模型陷入局部最优解,导致欠拟合。而Epoch的数量则决定了模型学习的深度,过多的Epoch可能导致过拟合,过少的Epoch则可能导致模型未能充分学习。 在实际...
说简单点,epoch影响的就是迭代计算的次数。 在不限内存的情况,应当用大点的batch_size, 进行模型优化,稳且快。在内存有限的情况下,减小batch_size的情况下应该相应减小的是learning_rate, 至于epoch怎么调,你就需要综合看你的loss下降情况与验证集的指标情况了。 若是loss还能降,指标还在升,那说明欠拟合,还没收敛...