2

当谈到卷积神经网络时,通常有很多论文推荐不同的策略。我听说有人说,在卷积之前为图像添加填充是绝对必要的,否则会丢失很多空间信息。另一方面,他们很乐意使用池化(通常是最大池化)来减小图像的大小。我想这里的想法是最大池化减少了空间信息但也降低了对相对位置的敏感性,所以这是一个权衡?

我听其他人说零填充不会保留更多信息,只会保留更多空数据。这是因为通过添加零,当部分信息丢失时,无论如何您都不会得到内核的反应。

我可以想象,如果您的大内核在边缘具有“废值”并且激活源集中在内核的较小区域中,那么零填充会起作用吗?

我很乐意阅读一些关于使用池化对比不使用填充进行下采样的效果的论文,但我找不到太多关于它的信息。有什么好的建议或想法吗? 使用卷积对比池的空间下采样

图:使用卷积对照池的空间下采样(Researchgate)

4

2 回答 2

0

添加填充不是“绝对必须”。有时控制输出的大小是有用的,这样它就不会被卷积减少(它也可以增加输出,取决于它的大小和内核大小)。零填充添加的唯一信息是输入限制中特征像素的边界(或近边界)条件,也取决于内核大小。(您可以将其视为相框中的“路过”)

池化在卷积网络中更为重要。池化并不完全是“下采样”或“丢失空间信息”。首先考虑内核计算是在池化之前进行的,具有完整的空间信息。池化减少了维度,但希望保留内核先前学习的信息。并且,通过这样做,实现了关于卷积网络最有趣的事情之一;对输入的位移、旋转或失真的鲁棒性。如果学会了不变性,即使它出现在另一个位置或带有扭曲,它也会被定位。它还意味着通过扩大规模进行学习,再次发现不同规模的分层模式。当然,在卷积网络中也是必要的,池化使得计算随着层数的增加成为可能。

于 2016-09-17T12:56:24.077 回答
0

我也为这个问题困扰了一段时间,我也看到一些论文提到了同样的问题。这是我最近发现的一篇论文;重组网络:学习从粗到细的特征聚合。我还没有完全阅读这篇论文,但它似乎对你的问题感到困扰。完全掌握论文后,我可以立即更新此答案。

于 2017-02-20T01:38:28.630 回答