问题标签 [yuv]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - 如何在 C/C++ 中执行 RGB->YUV 转换?
如何在 C/C++ 中执行 RGB->YUV 转换?
我有一些位图.. RGB 我需要将其转换为 YUV
库?啧啧?文章?
matlab - 将 yuv 序列转换为 bmp 图像
我有 yuv 序列,我想将它们转换为 bmp 图像。我想把它保存到我电脑上的一个文件夹中。
我在这个链接中使用了 yuv2bmp m 文件。
虽然 Yuv 文件只有 44MB,但 Matlab 抛出了内存错误。我该如何克服这个问题?请问你能帮帮我吗?
此致...
optimization - 快速 rgb565 到 YUV(甚至 rgb565 到 Y)
我正在做一个我想要输出选项以转到视频叠加层的东西。有些支持rgb565,如果这么甜,只需将数据复制过来。
如果不是,我必须通过转换复制数据,并且一次是一个帧缓冲区。我将尝试一些事情,但我认为这可能是优化者热衷于尝试挑战的事情之一。
通常最容易支持的各种 YUV 格式是 Y 平面,然后是交错的或单独的 UV 平面。
使用 Linux / xv,但在我处理的级别上,它只是字节和 x86。
我将以质量为代价专注于速度,但可能有数百种不同的路径可供尝试。那里有一个平衡点。
我查看了 mmx 但我不确定那里是否有任何有用的东西。没有什么让我觉得特别适合这项任务,而且要将事情放到寄存器中的正确位置需要大量的洗牌。
尝试使用 Y = Green*0.5 + R*0.25 + Blue*notmuch 的粗略版本。U 和 V 在质量方面更不值得关注。你可以在这些频道上逃脱谋杀。
对于一个简单的循环。
当然,每条指令都取决于之前的指令,而单词读取并不是最好的,因此交错两条指令可能会有所收获
一次用 4 个就很容易做到这一点,也许是为了一个好处。
任何人都可以想出更快更好的东西吗?
一个有趣的方面是一个像样的编译器是否可以产生类似的代码。
windows-mobile - 覆盖面
什么是覆盖面?我目前必须在覆盖表面上工作,并且我应该知道覆盖表面的概念?因为我必须努力转换 YUV444->RGB888
提前致谢
c - 从 YUV444 到 RGB888 的转换
我是这个领域的新手,我迫切需要你们的一些指导。
我必须支持yuv444
显示rgb 888
驱动模块。
我在 wince 6.0 r3 中 为yv12
→完成了一项测试,如下所述。rgb565
以下是此功能的流程。它告诉了这个测试的开始和结束。
请帮助我对 yuv444->rgb888 的上述功能进行更改。
c++ - U 和 V 缓冲区偏移的公式
YUV444格式类型中 U & V 的缓冲区偏移值应该是多少?
例如,如果我使用 YV12 格式,则值如下:
ppData.inputIDMAChannel.UBufOffset = iInputHeight * iInputWidth + (iInputHeight * iInputWidth)/4; ppData.inputIDMAChannel.VBufOffset = iInputHeight * iInputWidth;
iInputHeight = 160 & iInputWidth = 112
ppdata 是以下结构的对象:
idmaChannel结构如下:
我想要 YUV444 的ppData.inputIDMAChannel.UBufOffset和ppData.inputIDMAChannel.VBufOffset的公式
提前致谢
rgb - GPU YUV 转 RGB。值得努力?
我必须将几个完整的 PAL 视频 (720x576@25) 从 YUV 4:2:2 实时转换为 RGB,并且可能对每个视频进行自定义调整大小。我已经考虑过使用 GPU,因为我已经看到了一些这样做的例子(除了它是 4:4:4,所以 bpp 在源和命运上是相同的)——http: //www.fourcc.org/源码/YUV420P-OpenGL-GLSLang.c
但是,我没有任何使用 GPU 的经验,我不确定可以做什么。据我了解,该示例只是将视频帧转换为 YUV 并将其显示在屏幕上。
是否有可能获得处理后的帧?将其发送到 GPU、对其进行转换并再次发送到主存是否值得付出努力,还是会降低性能?
有点特定于平台,假设我在 Windows 上工作,是否可以从窗口获取 OpenGL 或 DirectDraw 表面,以便 GPU 可以直接绘制到它?
image - 来自 YUV420p 数据的灰度图像
根据我在互联网上阅读的内容,Y 值是亮度值,可用于创建灰度图像。以下链接:https ://web.archive.org/web/20141230145627/http://bobpowell.net/grayscale.aspx ,有一些关于计算位图图像亮度的 C# 代码:
我有一个方法可以返回 YUV 值并将 Y 数据放在一个字节数组中。我有当前的一段代码,但它在 Marshal.Copy 上失败 - 试图读取或写入受保护的内存。
任何帮助,将不胜感激?
c++ - 如何从 YUV 图像流中生成 VBR 视频?
我的硬件(视频采集卡)为我提供了 YV12(YUV 420)格式的图像,我正在尝试从中生成视频。我在 Windows 下使用 C++,我想从该流中生成一个 mpeg-4 VBR 视频,但我不知道我应该从哪里开始......(我需要它是 VBR,因为它是一个安全摄像头,并且会有一个很多重复的帧)是否有任何图书馆可以做这样的事情?
image-processing - 如何处理RGB到YUV的转换
公式说:
例如,如果 U 变量变为负数怎么办?
假设 R 和 G (ones) 的最大值和 B = 0 所以,我有兴趣在 OpenCV 中实现这个对流函数,那么,如何处理负值?使用浮动图像?无论如何请解释我,可能是我不明白的东西..