Tensorflow好久没用了,但是detach的目的就是使这个节点以及之前的节点的梯度不在更新,你可以手动冻结网络...
RT,损失函数里面要用到gamma函数,torch没有直接计算函数值的工具,只能把需要优化的参数detach().numpy()传进去计算,但是bac…显示全部 关注者2 被浏览31 关注问题写回答 邀请回答 好问题 1 添加评论 分享 暂时还没有回答,开始写第一个回答下载知乎客户端 与世界分享知识、经验和见解 ...
Tensorflow好久没用了,但是detach的目的就是使这个节点以及之前的节点的梯度不在更新,你可以手动冻结网络层,效果一样