4

当最终张量中包含多个值时可以使用 autograd 吗?

我尝试了以下。

x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2

print(y)

y.backward()

引发错误

RuntimeError: grad can be implicitly created only for scalar outputs

然而,以下工作。

x = torch.tensor([4.0, 5.0], requires_grad=True)
y = x ** 2
y = torch.sum(y)
print(y)

y.backward()
print(x.grad)

输出如下

tensor(41., grad_fn=<SumBackward0>)
tensor([ 8., 10.])

我是否在这里遗漏了什么,或者我可以继续假设 autograd 仅在最终张量中具有单个值时才有效?

4

1 回答 1

7

https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#gradients

y.backward()y.backward(torch.tensor(1.0))

通常,输出是标量,因此标量作为默认选择向后传递。但是,由于您的输出是二维的,您应该调用 y.backward(torch.tensor([1.0,1.0]))

x.grad这将给出预期的结果tensor([ 8., 10.])

于 2018-11-13T06:02:15.560 回答