正如这里所讨论的,Tensorflow 的梯度不是真正的雅可比矩阵——Y 对 X 的“梯度”实际上只是sum( Y ) 对X的梯度。同样,当输出不是标量时,Pytorch 根本不显示雅可比行列式。
但是计算肯定需要完整的雅可比行列式(在链式法则的应用中)。
在内部,它存储在哪里?即是否有一些隐藏在 GradientTape 中的对象可以访问?
正如这里所讨论的,Tensorflow 的梯度不是真正的雅可比矩阵——Y 对 X 的“梯度”实际上只是sum( Y ) 对X的梯度。同样,当输出不是标量时,Pytorch 根本不显示雅可比行列式。
但是计算肯定需要完整的雅可比行列式(在链式法则的应用中)。
在内部,它存储在哪里?即是否有一些隐藏在 GradientTape 中的对象可以访问?