问题标签 [deconvolution]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 转置卷积(反卷积)算法
我正在使用 tensorflow 构建卷积神经网络。给定一个形状的张量 (none, 16, 16, 4, 192),我想执行一个转置卷积,得到形状 (none, 32, 32, 7, 192)。
[2,2,4,192,192] 的过滤器大小和 [2,2,1,1,1] 的步幅会产生我想要的输出形状吗?
tensorflow - tf.nn.conv2d_transpose output_shape 动态batch_size
tf.nn.conv2d_transpose 的文档说:
output_shape 参数需要一个一维张量,指定此操作输出的张量的形状。在这里,由于我的 conv-net 部分完全建立在动态 batch_length 占位符上,我似乎无法batch_size
为这个操作的 output_shape 的静态要求提供解决方法。
网上有很多关于这个的讨论,但是,我找不到任何可靠的解决方案。它们中的大多数都是global_batch_size
定义了变量的hacky。我想知道这个问题的最佳解决方案。这个训练有素的模型将作为部署服务提供。
matlab - Matlab:卷积和反卷积结果很奇怪
数据x
输入自回归模型 (AR) 模型。AR 模型的输出在 SNR = 30 dB 时被加性高斯白噪声破坏。观测值用 表示noisy_y
。
假设h_hat
对 AR 模型进行近似估计(这些是从最小二乘估计中获得的)。我想看看从反卷积获得的输入与h_hat
已知的测量值有多接近x
。
- 我的困惑是使用哪个变量进行反卷积——干净
y
还是noisy y
?
反卷积后,我应该得到x_hat
. 我不确定执行反卷积的正确方法是使用noisy_y
还是y
在添加噪声之前使用 。我使用了以下代码。
- 有人可以帮忙看看什么是正确的绘图方法
x
和x_hat
.
下面是x
vs的图x_hat
。可以看出,这些不匹配。我的理解错在哪里?请帮忙。
代码是:
neural-network - 反卷积和调整大小之间的实际区别,然后是卷积以进行放大
我需要从一个层input = HxWxn1
(其中 H:高度、W:宽度和 n1:过滤器数量)到一个层output = 2Hx2Wxn2
(其中 2H = 2*Height 等,以及n2=n1/2
:新过滤器的数量)(上采样)。实现这一点的一种方法是使用转置卷积算子。然而,众所周知,反卷积(转置卷积)算子会导致棋盘伪影。解决此问题的一种方法是执行调整大小,然后应用卷积映射。例如
对比
显然,在第二种情况下,我们只是改变了过滤器的数量,我们“没有学习”任何特征(我们没有从input
层中总结信息)。但这可以通过另一个具有内核大小的卷积来解决 kernel!= 1
。例如
两种上采样方法之间是否存在任何实际差异(除了计算复杂性)?我知道后者解决了棋盘伪影的问题。
python - 图像(2D)的 PSF(点扩散函数)
我是图像分析方面的新手(使用 Python),我想在我的数据(CT 扫描)上应用richardson_lucy 反卷积(来自 skimage)。出于这个原因,我通过特定的软件估计了“体素数”中的 PSF。它的值大约是 6.73 体素,但我不知道如何将它用作函数中的参数。
该函数使用PSF参数作为ndarray,所以我尝试了这种方式:
它向我显示了这个错误:IndexError: too many indices for array
在 CT 扫描中,两种不同材料之间的模糊可以与高斯 PSF 相关联。如果您有更多去模糊的技巧(可能比 RL 更好),请写出来。
谁能帮帮我吗。
image - 如何使用 Python 为灰度图像创建 2D PSF 图像?
我需要使用此函数对 2D 灰度图像进行反卷积:skimage.restoration.richardson_lucy
它需要一个 PSF 图像作为强制参数。如何通过 Python 估计 2D PSF 图像?
谁能帮我?
python - tflearn conv2d_transpose 形状不兼容
我将大小为 [256 256 3] 的图像作为输入,并希望输出相同大小的图像,但显示了下面提到的错误。我试过改变形状,过滤器,步幅没有任何效果。任何其他实现相同的方法都将被理解或链接到与上述相同的东西,输入和输出都是图像。这是我的代码:
错误如下:
tensorflow - Tensorflow 与 Caffe 中的反卷积
Caffe中的反卷积层和Tensorflow有什么区别?在 Tensoroflow 中,有两种 padding 模式:“SAME”和“VALID”,哪一种和 Caffe 中使用的 padding 模式相同?
例如,在 Tensorflow 中,反卷积层为:
在 Caffe 中,它是:
将代码从 Caffe 传输到 Tensorflow 时,我无法实现相同的上采样图。
python - Tensorflow CNN 训练图像大小不一
我创建了一个深度卷积神经网络来对图像中的单个像素进行分类。我的训练数据将始终保持相同大小 (32x32x7),但我的测试数据可以是任意大小。
目前,我的模型仅适用于相同大小的图像。我已经广泛使用了 tensorflow mnist教程来帮助我构建我的模型。在本教程中,我们仅使用 28x28 图像。如何更改以下 mnist 模型以接受任何大小的图像?
为了让事情变得更复杂一点,我的模型在需要指定输出形状的地方进行了转置卷积。我将如何调整以下代码行,以便转置卷积输出与输入大小相同的形状。