我想知道如何处理 PyTorch 中的就地操作。我记得在 autograd 中使用就地操作一直是个问题。
实际上,我很惊讶下面的这段代码可以正常工作,即使我没有测试过,我相信这段代码会在 version 中引发错误0.3.1
。
基本上我想做的是将张量向量的某个位置设置为某个值,如下所示:
my_tensor[i] = 42
工作示例代码:
# test parameter a
a = torch.rand((2), requires_grad=True)
print('a ', a)
b = torch.rand(2)
# calculation
c = a + b
# performing in-place operation
c[0] = 0
print('c ', c)
s = torch.sum(c)
print('s ', s)
# calling backward()
s.backward()
# optimizer step
optim = torch.optim.Adam(params=[a], lr=0.5)
optim.step()
# changed parameter a
print('changed a', a)
输出:
a tensor([0.2441, 0.2589], requires_grad=True)
c tensor([0.0000, 1.1511], grad_fn=<CopySlices>)
s tensor(1.1511, grad_fn=<SumBackward0>)
changed a tensor([ 0.2441, -0.2411], requires_grad=True)
所以很明显在版本中0.4.1
。这工作得很好,没有警告或错误。
参考文档中的这篇文章:autograd-mechanics
在 autograd 中支持就地操作是一件困难的事情,我们不鼓励在大多数情况下使用它们。Autograd 积极的缓冲区释放和重用使其非常高效,并且很少有情况下就地操作实际上会显着降低内存使用量。除非您在沉重的内存压力下操作,否则您可能永远不需要使用它们。
但即使它有效,在大多数情况下也不鼓励使用就地操作。
所以我的问题是:
就地操作的使用对性能有多大影响?
在我想将张量的一个元素设置为某个值的情况下,如何使用就地操作?
提前致谢!