当最终张量中包含多个值时可以使用 autograd 吗?
我尝试了以下。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
print(y)
y.backward()
引发错误
RuntimeError: grad can be implicitly created only for scalar outputs
然而,以下工作。
x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
y = torch.sum(y)
print(y)
y.backward()
print(x.grad)
输出如下
tensor(41., grad_fn=<SumBackward0>)
tensor([ 8., 10.])
我是否在这里遗漏了什么,或者我可以继续假设 autograd 仅在最终张量中具有单个值时才有效?