我正在使用 TensorFlow 在 Keras 工作。我有一个深度神经模型(预测自动编码器)。我正在做一些类似于此的事情:https ://arxiv.org/abs/1612.00796——我试图了解给定层中变量对输出的影响。
为此,我需要找到损失(L)相对于特定层(s)输出的二阶导数(Hessian):
对角线条目就足够了。L 是标量,s 是 1 × n。
我首先尝试的是:
dLds = tf.gradients(L, s) # works fine to get first order derivatives
d2Lds2 = tf.gradients(dLds, s) # throws an error
TypeError: Second-order gradient for while loops not supported.
我也试过:
d2Lds2 = tf.hessians(L, s)
ValueError: Computing hessians is currently only supported for one-dimensional tensors. Element number 0 of `xs` has 2 dimensions.
我无法改变 s 的形状,因为它是神经网络的一部分(LSTM 的状态)。第一个维度 (batch_size) 已经设置为 1,我认为我无法摆脱它。
我不能重塑 s 因为它破坏了渐变的流动,例如:
tf.gradients(L, tf.reduce_sum(s, axis=0))
给出:
[None]
关于在这种情况下我能做什么的任何想法?