我正在尝试深入了解 Pytorch autograd;我想在通过如下 sigmoid 函数后观察一个简单张量的梯度:
import torch
from torch import autograd
D = torch.arange(-8, 8, 0.1, requires_grad=True)
with autograd.set_grad_enabled(True):
S = D.sigmoid()
S.backward()
我的目标是获得 D.grad() 但即使在调用它之前我也得到了运行时错误:
RuntimeError: grad can be implicitly created only for scalar outputs
我看到另一篇有类似问题的帖子,但那里的答案不适用于我的问题。谢谢