问题标签 [deconvolution]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
507 浏览

concatenation - Concat FC 层和反卷积层

我正在尝试将 Deconvolution 层与完全连接的层连接以用于处理 conlutional 层,但是当我在 concat Deconv Layer 与 FC 层之后进行重塑时,我的批量大小发生了变化,这就是我所做的过程:

在终端我有这个输出:

当我重塑我的批量大小更改时,他们知道如何在不改变批量大小的情况下重塑?

谢谢

0 投票
1 回答
3858 浏览

tensorflow - Tensorflow的conv2d_transpose()如何堆叠多层

我正在尝试堆叠 2 层以tf.nn.conv2d_transpose()对张量进行上采样。它在前馈期间工作正常,但在反向传播期间出现错误: ValueError: Incompatible shapes for broadcasting: (8, 256, 256, 24) and (8, 100, 100, 24).

基本上,我只是将第一个的输出设置conv2d_transpose为第二个的输入:

只使用一个conv2d_transpose,一切正常。仅当多个conv2d_transpose堆叠在一起时才会发生错误。

我不确定实现多层conv2d_transpose. 任何有关如何解决此问题的建议将不胜感激。

这是一个复制错误的小代码:

0 投票
1 回答
1759 浏览

tensorflow - 为什么这个 Conv2d_Transpose / deconv2d 不返回张量流中的原始输入?

我一直在尝试找出 conv2d_transpose 以反转 Tensorflow 中的卷积。我的理解是,在应用正常卷积然后转置之后,“反卷积”应该包含与“噪声”相同的数据,但“反卷积”只包含一些完全不同的图像。我的代码有问题,还是理论不正确?

0 投票
0 回答
306 浏览

matlab - 时间序列矩阵 Matlab/R 的反卷积

我有一个包含 N 行时间序列数据的矩阵。我有一些关于数据的特定噪声污染测量。

数据中的噪声可以建模为泊松分布,它将信号从矩阵中的给定列模糊到相邻列。例如,如果原始数据应该是一个没有信号包围的单峰:

测量的信号分布略微不对称,导致如下所示:

如果我有一个关于噪声如何在列之间分布数据的良好模型,我如何使用这些信息将矩阵反卷积为原始信号的近似值?

0 投票
2 回答
6167 浏览

deep-learning - 反卷积(反向卷积)是什么意思?

卷积神经网络中的反卷积或反向卷积是什么意思?

我理解卷积,如果我们考虑一个 3x3 窗口 W 和一个相同大小的内核 k,那么卷积 W*K 的结果将是一个值。这里 k 是具有 3x3 个元素的矩阵。

在我的理解中,反卷积试图对特征图进行上采样以获得更大的图。它是否使用与获取特征图相同的卷积矩阵?如果不是如何计算反向传播的梯度?详细的解释将非常有用。

0 投票
1 回答
7851 浏览

theano - keras中的反卷积2D层

该层尚未准备好记录得很好,我在弄清楚如何使用它时遇到了一些麻烦。
我正在尝试类似的东西:

但是当我尝试写作时d.output_shape,我得到了图像的原始形状,而不是两倍大小(这是我所期望的)。
任何帮助将不胜感激!

0 投票
2 回答
3249 浏览

caffe - caffe中的反卷积层

在阅读了一些关于 caffe 中的反卷积之后,我对 FCN 的 train.prototx here感到困惑。反卷积层的默认权重填充是“常量”,默认值为零。根据 caffe 中的反卷积操作,在输入乘以零时,并非所有输出都为零。

0 投票
0 回答
2379 浏览

tensorflow - Tensorflow conv3d_transpose(上采样)全连接层

我想模仿这篇论文,他们使用完全连接的上采样层。我正在使用贡献conv3d_transpose,但概念应该与 2D 版本相同。

我有一个卷积层的输出[6,6,6,256]被馈送到应该输出的上采样层[13,13,13,128]。既然层应该是全连接的,那么过滤器应该是对的[13,13,13,128]吧?(减少特征图大小)

此外,步幅应该1正确吗?

也许我在想这个倒退,让我解释一下。过滤器定义了反向感受野的大小(完全由它组成)——位于输出层的权重矩阵的大小(因此是完整的[13,13,13,128])。EDIT INCORRECT [步幅是单个窗口在输入图像上移动的步幅长度。] --> 我现在明白,步幅也与输出层有关。例如,步长为 2 的过滤器大小为 2,将使输出维度加倍。这意味着对于一个完全连接的层,步幅应该是0,但这是不可能的......

我的上采样代码在这里:

deconv函数如下所示:

权重和偏差在这里:

通过调试,我可以验证输入和输出尺寸:

当我运行此代码时,我收到以下错误:

我从第一Node行就假设问题deconv6出在deconv8.

0 投票
1 回答
114 浏览

neural-network - Caffe 分割网 - softmax_loss_layer 错误

我正在尝试使用 caffe 为图像实现分割网。对于每个具有维度的图像3x256x256,我都有一个256x256真实图像。
当我启动火车时,我收到了这个错误:

我究竟做错了什么?我应该如何解决这个问题?这是我的标签方法有问题吗?谢谢

0 投票
1 回答
1512 浏览

convolution - keras output_shape 问题中的 Deconv 实现

我正在实现以下用 Caffe 编写的着色模型。我对在 Keras 中提供的 output_shape 参数感到困惑

我添加了一个虚拟 output_shape 参数。但是如何确定输出参数?在 caffe 模型中,层定义为:

如果我不提供此参数,代码会给出参数错误,但我不明白我应该提供什么作为 output_shape

ps 已经在数据科学论坛页面上询问过,但没有任何回应。可能是因为用户基数小