在PyTorch中,backward()函数不接受grad_tensors参数。如果需要对梯度进行加权或者对多个损失函数进行求导,可以使用torch.autograd.grad()函数来实现。该函数的使用方式如下: 代码语言:txt 复制 grads = torch.autograd.grad(loss, [tensor1, tensor2, ...], grad_ten