v.requires_grad=False#固定参数 1. 2. 3. 4. 5. Step3:训练部分参数 #将要训练的参数放入优化器 optimizer2=torch.optim.Adam(params=[model.xxx.weight,model.xxx.bias],lr=learning_rate,betas=(0.9,0.999),weight_decay=1e-5) 1. Step4:检查部分参数是否固定 debug之后,程序正常运行,最好检查一下网...