2

我使用以下公式将 RGB 矩阵转换为 YUV 矩阵:

Y  =      (0.257 * R) + (0.504 * G) + (0.098 * B) + 16
Cr = V =  (0.439 * R) - (0.368 * G) - (0.071 * B) + 128
Cb = U = -(0.148 * R) - (0.291 * G) + (0.439 * B) + 128

然后我在矩阵上做了一个 4:2:0 色度子样本。我认为我这样做是正确的,我从 YUV 矩阵中取出 2x2 子矩阵,将值从最小到最大排序,并取中间 2 个值之间的平均值。

然后我使用来自 Wikipedia 的这个公式来访问 Y、U 和 V 平面:

size.total = size.width * size.height;
y = yuv[position.y * size.width + position.x];
u = yuv[(position.y / 2) * (size.width / 2) + (position.x / 2) + size.total];
v = yuv[(position.y / 2) * (size.width / 2) + (position.x / 2) + size.total + (size.total / 4)];

我正在使用 OpenCV,所以我尽力解释这一点:

y = src.data[(i*channels)+(j*step)];
u = src.data[(j%4)*step + ((i%2)*channels+1) + max];
v = src.data[(j%4)*step + ((i%2)*channels+2) + max + (max%4)];

src 是 YUV 子采样矩阵。我是否正确解释了该公式?

以下是我如何将颜色转换回 RGB:

bgr.data[(i*channels)+(j*step)] = (1.164 * (y - 16)) + (2.018 * (u - 128)); // B
bgr.data[(i*channels+1)+(j*step)] = (1.164 * (y - 16)) - (0.813 * (v - 128)) - (0.391 * (u - 128)); // G
bgr.data[(i*channels+2)+(j*step)] = (1.164 * (y - 16)) + (1.596 * (v - 128));   // R

问题是我的图像没有恢复到原来的颜色。

以下是供参考的图像:http: //i.stack.imgur.com/vQkpT.jpg(二次采样) http://i.stack.imgur.com/Oucc5.jpg(输出)

我看到我现在应该从 YUV444 转换为 RGB,但我不太明白剪辑函数在我在 Wiki 上找到的示例中的作用。

C = Y' − 16
D = U − 128
E = V − 128

R = clip(( 298 * C           + 409 * E + 128) >> 8)
G = clip(( 298 * C - 100 * D - 208 * E + 128) >> 8)
B = clip(( 298 * C + 516 * D           + 128) >> 8)

>> 是否意味着我应该移位?

我将不胜感激任何帮助/评论!谢谢

更新

尝试进行 YUV444 转换,但它只是让我的图像出现在绿色阴影中。

        y = src.data[(i*channels)+(j*step)];
        u = src.data[(j%4)*step + ((i%2)*channels+1) + max];
        v = src.data[(j%4)*step + ((i%2)*channels+2) + max + (max%4)];

        c = y - 16;
        d = u - 128;
        e = v - 128;

        bgr.data[(i*channels+2)+(j*step)] = clip((298*c + 409*e + 128)/256);
        bgr.data[(i*channels+1)+(j*step)] = clip((298*c - 100*d - 208*e + 128)/256);
        bgr.data[(i*channels)+(j*step)] = clip((298*c + 516*d + 128)/256);

而我的剪辑功能: int clip(double value) { return (value > 255) ?255:(值 < 0)?0:值;}

4

3 回答 3

2

将 WebM 帧解码为 RGB 时,我遇到了同样的问题。经过数小时的搜索,我终于找到了解决方案。

从这里获取 SCALEYUV 函数:http ://www.telegraphics.com.au/svn/webpformat/trunk/webpformat.h

然后从 YUV 解码 RGB 数据,请参阅此文件: http ://www.telegraphics.com.au/svn/webpformat/trunk/decode.c

搜索“py = img->planes[0];”,有两种算法可以转换数据。我只尝试了简单的一种(在“//然后回退到更便宜的方法”之后)。

代码中的注释也参考了这个页面:http ://www.poynton.com/notes/colour_and_gamma/ColorFAQ.html#RTFToC30

对我很有用。

于 2011-07-14T17:15:41.897 回答
1

由于 UV 确实会压缩图像,因此您不会得到完全相同的图像。
您不会说结果是完全错误(即错误)还是不完美

R = clip(( 298 * C           + 409 * E + 128) >> 8)
G = clip(( 298 * C - 100 * D - 208 * E + 128) >> 8)
B = clip(( 298 * C + 516 * D           + 128) >> 8)

>> 8 是位移位,相当于除以 256。这只是为了让您以整数单位而不是浮点数进行所有算术运算以提高速度

于 2011-07-03T03:31:50.677 回答
0

正在尝试使用 wiki 上的公式,发现混合公式:

byte c = (byte) (y - 16);
byte d = (byte) (u - 128);
byte e = (byte) (v - 128);

byte r = (byte) (c + (1.370705 * (e))); 
byte g = (byte) (c - (0.698001 * (d)) - (0.337633 * (e)));
byte b = (byte) (c + (1.732446 * (d)));

为我的图像产生“更好”的错误,只是使一些黑点变成纯绿色(即 rgb = 0x00FF00),这更适合检测和校正......

维基来源:https ://en.wikipedia.org/wiki/YUV#Y.27UV420p_.28and_Y.27V12_or_YV12.29_to_RGB888_conversion

于 2015-09-05T17:49:15.767 回答