我读了这篇文章“ ufldf ”,它发展了自动编码器中隐藏层的可视化,但我很困惑如何可视化卷积神经网络的过滤器。在我看来,对于第一个卷积层,要可视化过滤器,它需要这个等式:
而对于第二个卷积层,它应该将过滤器投影到原始输入空间,但我不知道该怎么做。
我读了这篇文章“ ufldf ”,它发展了自动编码器中隐藏层的可视化,但我很困惑如何可视化卷积神经网络的过滤器。在我看来,对于第一个卷积层,要可视化过滤器,它需要这个等式:
而对于第二个卷积层,它应该将过滤器投影到原始输入空间,但我不知道该怎么做。
在卷积神经网络中,卷积核的可视化与过滤器的可视化相同。您提到的等式中除法器的唯一需要是归一化。所以它只需要更好的可视化。
如果你想可视化第二个卷积层过滤器,你可以做同样的操作。您可能还想可视化投影到输入空间的那些过滤器。在这种情况下,您需要计算第二层的所有过滤器与第一层的所有过滤器的卷积。这应该是“全”卷积。如果您有中间池化层,您应该相应地取消过滤器。
因此,例如,考虑具有以下配置的卷积网络: 1) C 层:1 个大小为 32x32 的输入,6 个大小为 5x5 的内核;2)2x2比例的子采样层;3)C层:6个大小为14x14的输入(因为卷积和池化)和16个大小为7x7的内核;4)......其他一些更高的层
为了可视化从这个网络投影到输入空间的第 3 层内核,您需要对每个 7x7 内核进行上采样 2 次,然后与第一层内核进行“完全”卷积,这将为您提供 16x6 大小为 22x22 的过滤器