backward(): 进行反向传播计算梯度。 step(): 更新模型的参数。 步骤5:调整学习率(可选) 在实际的训练过程中,你可能需要动态调整学习率。PyTorch提供了有关学习率调整的接口,比如使用学习率调度器。 scheduler=optim.lr_scheduler.StepLR(optimizer,step_size=5,gamma=0.1)forepochinrange(num_epochs):# ...(...