让w
和phi
成为两个参数
w = Parameter(T.tensor([2.2]))
phi = Parameter(T.tensor([1.5]))
wp = w*phi
wp.backward()
grd = phi.grad
print(grd)
打印:
tensor([2.2000])
我想:
tensor([2.2000], requires_grad=True)
即我想要哪个phi.grad
是w
更大网络的参数,应该有requires_grad=True
这样我就可以做到
grd.backward()
w.grad
我不知道如何分离这两个计算图。