二阶偏导数检验是判断临界点是最小值、最大值还是鞍点的简单方法。我目前正在考虑在 tensorflow 中为简单的神经网络实现这样的测试。以下权重集用于对具有 2 个输入、1 个隐藏层、2 个隐藏单元和 1 个输出单元的 XOR 神经网络进行建模:
weights = {
'h1': tf.Variable(np.empty([2, 2]), name="h1", dtype=tf.float64),
'b1': tf.Variable(np.empty([2]), name="b1", dtype=tf.float64),
'h2': tf.Variable(np.empty([2, 1]), name="h2", dtype=tf.float64),
'b2': tf.Variable(np.empty([1]), name="b2", dtype=tf.float64)
}
现在可以按如下方式获得梯度和粗麻布:
gradients = tf.gradients(mse_op, [weights['h1'], weights['b1'], weights['h2'], weights['b2']])
hessians = tf.hessians(mse_op, [weights['h1'], weights['b1'], weights['h2'], weights['b2']])
mse_op
网络的 MSE 误差在哪里。
梯度和粗麻布计算都很好。梯度的维度等于原始输入的维度。粗麻布的维度明显不同。
问题:这是一个好主意,甚至可以方便地计算通过应用于给定权重集生成的粗麻布的特征值吗?tf.hessian
特征值是否能代表我认为它们所代表的东西 - 即,我能否说如果总体上同时存在正值和负值,那么我们可以得出结论,该点是鞍点?
到目前为止,我已经尝试了以下开箱即用的方法来计算每个粗麻布的特征值:
eigenvals1 = tf.self_adjoint_eigvals(hessians[0])
eigenvals2 = tf.self_adjoint_eigvals(hessians[1])
eigenvals3 = tf.self_adjoint_eigvals(hessians[2])
eigenvals4 = tf.self_adjoint_eigvals(hessians[3])
1,2 和 4 工作,但第三个炸弹出来,抱怨Dimensions must be equal, but are 2 and 1 for 'SelfAdjointEigV2_2' (op: 'SelfAdjointEigV2') with input shapes: [2,1,2,1].
我应该以某种方式重塑粗麻布并继续,还是我完全走错了路?