关于梯度下降(GD)和随机梯度下降(SGD)正确的是? A、在 GD 中,每一次迭代需要使用整个训练集或子训练集的数据更新一个参数。 B、在 SGD 中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。 C、在 GD 和 SGD 中,每一次迭代中都是更新一组参数以最小化损失函数。