我有一个损失函数和一个权重矩阵列表,我正在尝试计算二阶导数。这是一个代码片段:
loss.backward(retain_graph=True)
grad_params_w=torch.autograd.grad(loss, weight_list,create_graph=True)
for i in range(layers[a]):
for j in range (layers[a+1]):
second_der=torch.autograd.grad(grad_params_w[a][i,j], my_weight_list[b], create_graph=True)
上面的代码有效(实际上二阶导数是在一个单独的函数中调用的,但为了简洁起见,我直接把它放了)。但我对何时使用创建和保留图完全感到困惑。
第一:如果我不做 loss.backward(retain_graph) 我得到错误 A:
RuntimeError:变量元组的元素 0 易失
如果我使用它,但不对一阶导数添加任何“图形”语句,则会收到错误 B:
RuntimeError:试图第二次向后遍历图形,但缓冲区已被释放。第一次向后调用时指定retain_graph=True。
如果我指定retain_graph=True,无论我是否在此处放置create graph 语句,都会得到二阶导数的错误A(即在for 循环中)。
因此,只有上面的代码片段有效,但我需要 loss.backward 和所有 create graph 语句感觉很奇怪。有人可以向我澄清这一点吗?非常感谢提前!!