for_backward`是会保留此input的全部信息(一个完整的外挂Autograd Function的Variable), 并提供避免in-p...
tensor跟Variable合并了,tensor也可以有grad,且ctx.save_for_backward的实现其实就是你所说的 ctx.inpu...