我已经看到了两种从可靠来源可视化转置卷积的方法,据我所知它们是冲突的。
我的问题归结为,对于内核的每个应用程序,我们是从3x3
具有输入填充的许多(例如)元素变为一个,还是从一个元素变为多个(例如3x3
)?
相关问题:tf.nn.conv2d_transpose实现了哪个版本?
我困惑的根源是:
深度学习的卷积算法指南可能是最有名的可视化,但它没有经过同行评审 (Arxiv)。
第二个来自Deconvolution 和 Checkerboard Artifacts,在技术上也没有经过同行评审(Distil),但它来自一个更有信誉的来源。(文中使用了反卷积这个词,但说明这和transposed conv是一样的。)
由于这个问题的性质,很难在网上寻找结果,例如这个SO帖子占据了第一位,但我不确定我能在多大程度上信任它。