问题标签 [deconvolution]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
concatenation - Concat FC 层和反卷积层
我正在尝试将 Deconvolution 层与完全连接的层连接以用于处理 conlutional 层,但是当我在 concat Deconv Layer 与 FC 层之后进行重塑时,我的批量大小发生了变化,这就是我所做的过程:
在终端我有这个输出:
当我重塑我的批量大小更改时,他们知道如何在不改变批量大小的情况下重塑?
谢谢
tensorflow - Tensorflow的conv2d_transpose()如何堆叠多层
我正在尝试堆叠 2 层以tf.nn.conv2d_transpose()
对张量进行上采样。它在前馈期间工作正常,但在反向传播期间出现错误:
ValueError: Incompatible shapes for broadcasting: (8, 256, 256, 24) and (8, 100, 100, 24)
.
基本上,我只是将第一个的输出设置conv2d_transpose
为第二个的输入:
只使用一个conv2d_transpose
,一切正常。仅当多个conv2d_transpose
堆叠在一起时才会发生错误。
我不确定实现多层conv2d_transpose
. 任何有关如何解决此问题的建议将不胜感激。
这是一个复制错误的小代码:
tensorflow - 为什么这个 Conv2d_Transpose / deconv2d 不返回张量流中的原始输入?
我一直在尝试找出 conv2d_transpose 以反转 Tensorflow 中的卷积。我的理解是,在应用正常卷积然后转置之后,“反卷积”应该包含与“噪声”相同的数据,但“反卷积”只包含一些完全不同的图像。我的代码有问题,还是理论不正确?
matlab - 时间序列矩阵 Matlab/R 的反卷积
我有一个包含 N 行时间序列数据的矩阵。我有一些关于数据的特定噪声污染测量。
数据中的噪声可以建模为泊松分布,它将信号从矩阵中的给定列模糊到相邻列。例如,如果原始数据应该是一个没有信号包围的单峰:
测量的信号分布略微不对称,导致如下所示:
如果我有一个关于噪声如何在列之间分布数据的良好模型,我如何使用这些信息将矩阵反卷积为原始信号的近似值?
deep-learning - 反卷积(反向卷积)是什么意思?
卷积神经网络中的反卷积或反向卷积是什么意思?
我理解卷积,如果我们考虑一个 3x3 窗口 W 和一个相同大小的内核 k,那么卷积 W*K 的结果将是一个值。这里 k 是具有 3x3 个元素的矩阵。
在我的理解中,反卷积试图对特征图进行上采样以获得更大的图。它是否使用与获取特征图相同的卷积矩阵?如果不是如何计算反向传播的梯度?详细的解释将非常有用。
theano - keras中的反卷积2D层
该层尚未准备好记录得很好,我在弄清楚如何使用它时遇到了一些麻烦。
我正在尝试类似的东西:
但是当我尝试写作时d.output_shape
,我得到了图像的原始形状,而不是两倍大小(这是我所期望的)。
任何帮助将不胜感激!
caffe - caffe中的反卷积层
在阅读了一些关于 caffe 中的反卷积之后,我对 FCN 的 train.prototx here感到困惑。反卷积层的默认权重填充是“常量”,默认值为零。根据 caffe 中的反卷积操作,在输入乘以零时,并非所有输出都为零。
tensorflow - Tensorflow conv3d_transpose(上采样)全连接层
我想模仿这篇论文,他们使用完全连接的上采样层。我正在使用贡献conv3d_transpose
,但概念应该与 2D 版本相同。
我有一个卷积层的输出[6,6,6,256]
被馈送到应该输出的上采样层[13,13,13,128]
。既然层应该是全连接的,那么过滤器应该是对的[13,13,13,128]
吧?(减少特征图大小)
此外,步幅应该1
正确吗?
也许我在想这个倒退,让我解释一下。过滤器定义了反向感受野的大小(完全由它组成)——位于输出层的权重矩阵的大小(因此是完整的[13,13,13,128]
)。EDIT INCORRECT [步幅是单个窗口在输入图像上移动的步幅长度。] --> 我现在明白,步幅也与输出层有关。例如,步长为 2 的过滤器大小为 2,将使输出维度加倍。这意味着对于一个完全连接的层,步幅应该是0
,但这是不可能的......
我的上采样代码在这里:
该deconv
函数如下所示:
权重和偏差在这里:
通过调试,我可以验证输入和输出尺寸:
当我运行此代码时,我收到以下错误:
我从第一Node
行就假设问题deconv6
出在deconv8
.
neural-network - Caffe 分割网 - softmax_loss_layer 错误
我正在尝试使用 caffe 为图像实现分割网。对于每个具有维度的图像3x256x256
,我都有一个256x256
真实图像。
当我启动火车时,我收到了这个错误:
我究竟做错了什么?我应该如何解决这个问题?这是我的标签方法有问题吗?谢谢
convolution - keras output_shape 问题中的 Deconv 实现
我正在实现以下用 Caffe 编写的着色模型。我对在 Keras 中提供的 output_shape 参数感到困惑
我添加了一个虚拟 output_shape 参数。但是如何确定输出参数?在 caffe 模型中,层定义为:
如果我不提供此参数,代码会给出参数错误,但我不明白我应该提供什么作为 output_shape
ps 已经在数据科学论坛页面上询问过,但没有任何回应。可能是因为用户基数小