在我的 PyTorch 程序中,我有一个在运行时不断更新的矩阵。
我想知道如何执行此更新。我尝试使用这样的东西:
matrix[0, index] = hidden[0]
matrix
和都是hidden
autograd 变量。使用上面的示例时,我收到以下错误消息:
RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation
我想知道如何解决这个问题并在不使用就地操作的情况下执行更新。
可能切片矩阵并使用 torch.cat 创建一个新矩阵会起作用,但这似乎不是一个很好的解决方案。
有没有更好的方法来做到这一点?
提前致谢!