一般来说 val_loss在训练初期应该比loss稍大一点,而后趋于相等,但在训练中出现了val_loss比loss小一个数量集的问题,查出以下原因: 在线程中,Aurélien简洁明了地解释了训练深度神经网络时验证损失可能低于训练损失的三个原因: 原因1:在训练期间应用正则化,但在验证/测试期间未进行正则化。如果在验证/测试期间添加正...