问题标签 [image-translation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - 如何将旋转矩阵 R(3*3) 和矢量平移 T(3*1) 应用于 matlab 中的图像?
我有两个图像I1
和I2
,我得到了这两个图像之间的旋转矩阵R (3*3)
和平移向量。T (3*1)
现在我想应用它R
并从中获取对齐的T
图像。我尝试了这段代码,但没有奏效:I1
J
I1
请帮忙
matlab - 无循环的图像变换
我在 matlab 中编写图像转换函数,而不是使用像“imwarp 或 imtransform”这样的预定义函数。我已经大致完成了代码的编写,但是由于使用了循环,它花费的时间太长。请给我一个解决方案,它可以在没有循环的情况下达到相同的结果
typo3 - 带有图像“翻译行为:自定义值”的 TYPO3 新闻翻译不起作用
我在带有新闻元素的 TYPO3 8.7 中遇到了一个小问题,并为翻译设置了自定义图像。我还是 TYPO3 的新手。
我想让我的新闻的英语版本具有与我的标准语言版本不同的图像,但我只能使相同的一个对两者都有效或根本不工作。
首先,我添加了一个带有图像的新闻元素,将其翻译成英文,将图像的翻译行为设置为“自定义值”,隐藏原始图像,然后添加一个新图像。
我希望英文版会使用新图像,但事实并非如此。全然没有Image。其他一切都按预期工作。当我取消隐藏旧的并使用“翻译行为:默认语言的值”时,我得到了标准图像。
我也尝试删除翻译版本中的标准图像,但没有任何效果:X
我的 tt_content.php 没有设置“allowLanguageSynchronization”。文档说默认情况下它是“假的”,所以我认为它不会导致问题。一些论坛帖子建议这可能是一些类似问题的原因,就像我说我对 TYPO3 还是新手,我不知道我在这里缺少什么。
我所做的大多数研究都链接到这个问题:https ://forge.typo3.org/issues/57272
编辑:固定链接
python - cv2.warpPerspective 是如何工作的?
我使用以下代码在两个图像(img_source、img_ref)之间进行了图像配准。
它完美地工作。然后我想知道registered_image上某个特定点(比如img_source上的点(x,y))(比如im1Reg上的(x,y))的位置。按照 OpenCV 网站上对 warPerspective 的解释,我应用以下等式:
x=(M11x0+M12y0+M13)/(M31x0+M32y0+M33) y=(M21x0+M22y0+M23)/(M31x0+M32y0+M33)
其中 M_{i,j} 是变换矩阵 h 的入口。
但是,结果 (x,y) 不正确(不匹配)。这里有什么建议吗?
谢谢!
python - 编码器-解码器网络可以用于不同的输入和输出吗?
处理图像翻译问题。有很多对输入-输出图像,比如说草图作为输入,翻译草图作为输出。图像是黑白的,带有 1 像素宽度的草图线。
可以使用简单的编码器-解码器来学习图像翻译吗?
下面的代码片段来自https://blog.keras.io/building-autoencoders-in-keras.html,它显示了自动编码器的编程方式。显然,作为自动编码器,输入和输出都显示相同。
但是在这里,我可以给出“x_train,y_train”而不是“x_train,xtrain”作为前两个参数,其中 x_train 是输入图像,y_train 是输出图像?
理论上是正确的吗?以下优化器和成本函数会起作用吗?
通常 Pix2Pix 网络用于此类工作。但是 GAN 的主要原则是他们学习成本函数以获得良好的输出。
在我的问题中,成本函数是非常确定的,而不是到处都有一个像素。因此可以清楚地定义错误。
甚至在这里尝试 Pix2Pix 在理论上是否正确?
computer-vision - 基于 GAN 的图像到分割图与 SOTA 语义分割方法有何不同?
我一直在寻找像 Pix2Pix 和 DeeplabV3 这样的论文。在 pix2pix 论文中,执行了一个图像分割任务。同样,DeeplabV3 用于分割任务。我想了解什么时候应该使用 GAN 进行分割,什么时候应该使用 SOTA 分割方法。这些方法在语义分割上的优缺点是什么?
machine-learning - 具有中间未知功能的图像到图像转换
我有一组成对的二进制图像 X、Y 和一个我无法访问的外部函数,它接收 X 作为输入并输出二进制图像 W。
我想开发一个可以将 X 转换为 X_optimal 的神经网络,这样在将其传递给外部函数后,我可以最小化 |YW|。
外部函数只能接收二进制图像并且它输出二进制图像,所以 X_optimal 必须是另一个二进制图像,问题是神经网络的输出通常在 0 或 1 之间,如果我应用阈值,那么我不能反向传播通过网络,因为它是不可微的。
请我想对如何开始我的网络架构有一些直觉,或者如果您知道一些我可以阅读的论文,那将非常有帮助
deep-learning - 在与图像翻译非常相似的任务中,如何处理 UNet 编码器/解码器 CNN 中的严重过拟合?
我正在尝试使 UNet CNN 适应与图像到图像转换非常相似的任务。网络的输入是大小为 (64,256) 的二进制矩阵,输出大小为 (64,32)。列表示通信信道的状态,其中列中的每个条目是子信道的状态。1表示子信道被占用,0表示子信道空闲。横轴代表时间的流动。因此,第一列是时隙 1 的通道状态,第二列是时隙的状态,依此类推。任务是在给定前 256 个时隙的情况下预测接下来 32 个时隙中的通道状态,我将其视为图像到图像的转换。训练数据的准确率约为 90%,而测试数据的准确率约为 50%。通过这里的准确性,我的意思是每张图片中正确条目的平均百分比。此外,在训练时,验证损失增加而损失减少,这是过度拟合的明显迹象。我已经尝试了大多数正则化技术,也尝试过降低模型的容量,但这只会减少训练误差,而不会改善泛化误差。有什么建议或想法吗?我在下一部分中包含了 1000 个样本的训练学习曲线、网络的实现以及来自训练和测试集的样本。我已经尝试了大多数正则化技术,也尝试过降低模型的容量,但这只会减少训练误差,而不会改善泛化误差。有什么建议或想法吗?我在下一部分中包含了 1000 个样本的训练学习曲线、网络的实现以及来自训练和测试集的样本。我已经尝试了大多数正则化技术,也尝试过降低模型的容量,但这只会减少训练误差,而不会改善泛化误差。有什么建议或想法吗?我在下一部分中包含了 1000 个样本的训练学习曲线、网络的实现以及来自训练和测试集的样本。
下面是网络的实现:
image - 如何在 Matlab 中仅使用 affine2d 和 transformPointsForward 旋转图像?
我想在 Matlab 中旋转(30 度)图像,但不使用 imwarp、imtranslate、imrotate、imresize。
我的代码如下:
我相信我应该使用 imref2d,但我不完全确定如何使用。如何分配新坐标?我希望其余空间(由图像使用)为黑色(像素值 = 0)。