问题标签 [deconvolution]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
3810 浏览

matlab - 矩阵和子矩阵之间的反卷积

我有一个矩阵a=[[1 2 3]; [4 5 6]; [7 8 9]]和一个子矩阵b=[[5 6];[8 9]]

matlab中是否有反卷积的方法(a,b)

我正在寻找一种方法来识别可能的巨型矩阵中是否存在子矩阵。通过一种反卷积,我希望获得类似于矩阵的东西,周围和1子矩阵存在的地方都是零。

在上面的示例中,a1在右下角。

0 投票
1 回答
134 浏览

matlab - 使用图片的清晰部分重新创建 PSF

我正在尝试对下图中的模糊部分进行模糊处理。

图像部分模糊

原来的PSF没有给出,所以我开始分析模糊的部分,看看是否有一个我能大致辨认出来的词。我发现我可以在模糊部分中辨认出“of”。我在清晰部分中裁剪了模糊的“of”及其对应物,如下所示。

模糊-非模糊比较

然后,我通过 FFT 的讲座思考,您将模糊的(频域)与特定的模糊函数(频域)相除以重新创建原始图像。

我想如果我可以做 Unblurred(频域)\Blurred(频域),就可以检索到原始的 PSF。请告知我如何做到这一点。

下面是我的代码:

但是,此代码不起作用,并且我收到以下错误:

这是重新创建原始 PSF 的好方法吗?

0 投票
1 回答
8010 浏览

c++ - 使用opencv通过反卷积对图像进行去模糊

我有两个图像o1& o2,并且我使用相同的高斯模糊内核对这两个图像进行了模糊处理。然后我找到了内核,模糊得到的图像k1 = DFT(b1) / DFT (o1)在哪里。b1o1

我已经使用这个 kernal( k1) 对 进行反卷积b2,其中b2是通过模糊获得的o2

但是去模糊输出不正确(输出图像与原始图像没有任何关系)我的代码有什么问题?

图像 o1、o2、b1、b2,r1并按r2以下顺序给出:

o1(原始图像 - 1)

o2(原始图像 - 2)

b1(原1模糊)

b2(原2模糊)

b1 去模糊

b2 去模糊

0 投票
1 回答
2792 浏览

python - 如何在 numpy 中为 CNN 实现反卷积层?

我尝试为卷积网络实现反卷积层。我所说的反卷积的意思是假设我将3x227x227输入图像输入到具有大小3x11x11和步幅为 4 的过滤器的层。因此,生成的特征图具有大小55x55。我尝试做的是应用我将55x55特征图投影到再次3x227x227图像的反向操作。基本上,55x55特征图上的每个值都由过滤器加权3x11x11并投影到图像空间,并且由于步幅而导致的重叠区域被平均。

我试图在 numpy 中实现它但没有任何成功。我找到了一个暴力嵌套for循环的解决方案,但它太慢了。如何有效地在 numpy 中实现它?欢迎任何帮助。

0 投票
1 回答
431 浏览

matlab - 我需要在 MATLAB 中对没有点扩散函数的荧光珠图像进行反卷积

我知道我可以使用LUCYWeinerBlind等反卷积算法,但我对如何估计 LUCY 和 Weiner 算法所需的 PSF(点扩散函数)感到困惑。我目前正在使用宽场荧光显微镜设置。

我在互联网上的很多地方都读到了一个荧光珠,它代表一个亚分辨率对象,因此是一个脉冲函数。虽然我知道 OTF(光学传递函数)由我得到的图像表示,但我如何叠加以使用相同的图像对我拥有的图像进行反卷积?

这是我试图去卷积的图像示例:

我有一个程序可以自动选择珠子并裁剪图像的其余部分。我需要做的就是对此应用反卷积。

我的最终目标是通过对我从视频中获得的一堆 2D 切片进行反卷积并用 3D 软件表示它们来实现光学切片。

所以有人可以从理论上解释我需要做什么(或者在 MATLAB 方面,这将是首选)。


一种可能的解决方案

在与几个人交谈后,我注意到 EPFL 有一个可从 MATLAB 调用的Java 资源。它是一个 PSF 发生器,基于您的显微镜的规格。这个生成的 PSF 可以与 LUCY 和 Weiner 一起使用。


替代解决方案

我还找到了这个资源,这是一个 MATLAB 库,专门用于我现在正在做的事情。


(如果有人也试图回答这个问题,我会喜欢它)是我将如何衡量反卷积算法的性能。我相信我的反卷积的最终结果将取决于 PSF 估计(EPFL 资源或 Praveen 算法)和反卷积算法(Blind、LUCY、Weiner 等)。完成后,我将在此处发布所有结果的表格。

0 投票
1 回答
1396 浏览

tensorflow - 如何在张量流中 deconv2d 的 output_shape 参数中给出变量 batch_dim?

我正在尝试对tf.nn.deconv2d()可变大小的一批数据使用操作。但是,看来我需要将output_shape参数设置如下:

为什么tf.nn.deconv2d()要固定output_shape?有没有办法指定可变批次尺寸?如果输入批量大小发生变化会发生什么?

0 投票
2 回答
803 浏览

algorithm - 最简单公式中的多通道盲反卷积:如何解决?

最近开始研究反卷积算法,遇到如下采集模型:

收购模式

其中f是原始(潜在)图像,g是输入(观察到的)图像,h是点扩散函数(退化核),n是随机加性噪声,* 是卷积算子。如果我们知道gh ,那么我们可以使用 Richardson-Lucy 算法恢复f :

理查森-露西算法

其中波浪号_h, (W,H)h的矩形支持的大小,乘法和除法是逐点的。用 C++ 编写代码很简单,所以我就这样做了。事实证明,当i小于某个mf_i时,它近似于f,然后它开始迅速衰减。所以算法只需要在这个m处停止——最令人满意的迭代。

如果点扩散函数g也是未知的,则称该问题是盲目的,可以应用 Richardson-Lucy 算法的修改:

bling_richarson_lucy

对于f的初始猜测,我们可以像以前一样采用g,对于h的初始猜测,我们可以采用琐碎的 PSF,或者任何看起来类似于观察到的图像退化的简单形式。该算法在模拟数据上也可以正常工作。

现在我考虑使用以下采集模型的多帧盲反卷积问题:

多帧采集模型

有没有办法开发 Richardson-Lucy 算法来解决这个公式中的问题?如果没有,是否有任何其他迭代过程来恢复f,这不会比以前的复杂得多吗?

0 投票
0 回答
611 浏览

matlab - 使用 vl_nnconv 时出错 内存不足。为您的选项键入 HELP MEMORY

我正在尝试调整从http://www.vlfeat.org/matconvnet/下载的预训练 VGG 卷积神经网络实用 (2) 网络。当我执行练习 3 时,会出现此错误。我不明白为什么。

0 投票
0 回答
596 浏览

python - scipy.signal.deconvolve 的除数参数有哪些限制以确保数值稳定性?

这是我的问题:我将处理来自系统的数据,我将对脉冲响应有一个很好的了解。在使用 Python 编写一些基本脚本之前,我开始了解 scipy.signal.convolve 和 scipy.signal.deconvolve 函数。为了对我的最终解决方案有信心,我想了解他们的要求和限制。

我使用了以下测试:
1. 我建立了一个由两个高斯组成的基本信号。
2. 我建立了一个高斯脉冲响应。
3. 我将我的初始信号与这个脉冲响应进行卷积。
4. 我对这个卷积信号进行了反卷积。
5. 我将最后一个信号与我最初的信号进行了比较。
这个测试的结果很大程度上取决于我如何定义我的脉冲响应:要么我设法恢复了我的初始信号,要么去卷积的信号强烈发散。

这是代码:
我使用 python 3.4.2、numpy 1.8.2 和 scipy 0.14.0。

在前面的代码中,scipy.signal.deconvolve 的除数参数是 y_ir。我使用了定义 y_ir 的间隔的参数,例如 [low, up, step]。为了向您展示让我感到困惑的事情,让我们采用以下三个集合:
1) [-5, 5, 0.1]
2) [-2, 2, 0.1]
3) 和[-2, 2, 0.5](注意在 y_os 的定义中 step 没有改变)。

下图显示了上述三组的原始信号以及去卷积信号。
原始信号
去卷积信号的比较

谁能解释这种行为?是否有任何要求divisor保证此功能的正确行为?

先感谢您。

0 投票
6 回答
14744 浏览

tensorflow - TensorFlow:解池

是否有 TensorFlow 本机函数可以对反卷积网络进行反池化?

我已经用普通的 python 编写了这个,但是当想要将它翻译到 TensorFlow 时它变得越来越复杂,因为它的对象目前甚至不支持项目分配,我认为这对 TF 来说是一个很大的不便。