总结 遇到“ValueError: optimizer got an empty parameter list”这个错误时,首先要检查的是模型参数是否正确无误地传递给了优化器。这通常涉及到对模型定义、参数筛选以及优化器初始化过程的仔细检查。如果问题依然存在,可以尝试在更广泛的社区中寻求帮助。
出现这个情况是不正常的,因为我定义了alpha和beta两个可学习变量。 我通过询问GPT4.0, chatGPT,检查了requires_grad=True等一系列,但还是没能解决问题。 在我仔细排查后发现,在定义那2个变量时不能加.cuda() 这个也许是pytorch的隐藏bug吧 改为以下代码后就正常了。
将下划线_改为__即可解决问题。发布于 2021-09-04 15:21 内容所属专栏 报错总结 订阅专栏 标点符号 解决问题 字体 赞同1 条评论 分享喜欢收藏申请转载 写下你的评论... 1 条评论 默认 最新 快枪手Blondie 作者 长下划线为两个小下划线的链接 2021-09-05 回复喜欢 ...
Got the following error: ValueError: optimizer got an empty parameter list with both options below: def configure_optimizers(self): # option1 optimizer = torch.optim.Adam(self.parameters(), lr=self.hparams.lr) # option 2 optimizer = torch.optim.Adam(params = list(self.parameters()), lr=se...
However, when I set the model to a trainable one, it shows ValueError: optimizer got an empty parameter list. Here is the code : torch_model_1 = convert(onnx_model_path) GraphModule( (initializers): Module() (sequential/mono_dense/MatMul): OnnxMatMul() ...
出现这个情况是不正常的,因为我定义了alpha和beta两个可学习变量。 我通过询问GPT4.0, chatGPT,检查了requires_grad=True等一系列,但还是没能解决问题。 在我仔细排查后发现,在定义那2个变量时不能加.cuda() 这个也许是pytorch的隐藏bug吧 改为以下代码后就正常了。
🐛 Bug To Reproduce import torch class Model(torch.nn.Module): pass model = Model() optim = torch.optim.Adam(model.parameters()) raises ValueError: optimizer got an empty parameter list Expected behavior Sometimes models happen to have no...
Got the following error: ValueError: optimizer got an empty parameter list with both options below: def configure_optimizers(self): # option1 optimizer = torch.optim.Adam(self.parameters(), lr=self.hparams.lr) # option 2 optimizer = torch.optim.Adam(params = list(self.parameters()), lr=se...