2

我一直在研究受 UNet 启发的架构 ENet,我认为我遵循基本概念。ENet 效率的基础是空洞卷积(除其他外)。我了解保留空间分辨率,如何计算等等,但是我不明白为什么它在计算和内存方面比例如最大池便宜。

ENet:https ://arxiv.org/pdf/1606.02147.pdf

4

2 回答 2

2

您只需使用扩张卷积层跳过计算层:

例如扩张卷积

  • 过滤器内核 k×k = 3×3,膨胀率 r = 2,步幅 s = 1,无填充

相当于

  • 2x 下采样,然后是 3x3 卷积,然后是 2x 上采样

如需进一步参考,请查看来自 Vincent Dumoulin 的精彩论文,Francesco Visin: 深度学习卷积算法指南

本文的 github 上还有一个关于扩张卷积如何工作的动画: https ://github.com/vdumoulin/conv_arithmetic

于 2021-02-16T08:49:50.550 回答
0

除了@T1Berger 接受的答案之外,请考虑一种情况,您希望在许多像素上捕获更大的特征而不进行下采样,这会导致信息丢失。执行此操作的传统方法是在卷积层中使用更大的内核。这些较大的内核在计算上是昂贵的。通过使用扩张卷积层,可以用更少的操作提取更大的特征。这对于优化稀疏特征映射操作的框架来说是正确的。

于 2021-07-12T08:06:53.290 回答