6

我正在寻找如何使用该libjpeg库将 YUYV 格式框架保存到 JPEG 文件的示例。

4

2 回答 2

9

在典型的计算机 API 中,“YUV”实际上表示 YCbCr,“YUYV”表示“YCbCr 4:2:2”,存储为 Y0、Cb01、Y1、Cr01、Y2 ...

因此,如果您有一个“YUV”图像,您可以使用 JCS_YCbCr 颜色空间将其保存到 libjpeg。

当您有 422 图像 (YUYV) 时,您必须在将扫描线写入 libjpeg 之前将 Cb/Cr 值复制到需要它们的两个像素。因此,这个写入循环将为您完成:

// "base" is an unsigned char const * with the YUYV data
// jrow is a libjpeg row of samples array of 1 row pointer
cinfo.image_width = width & -1; 
cinfo.image_height = height & -1; 
cinfo.input_components = 3; 
cinfo.in_color_space = JCS_YCbCr; 
jpeg_set_defaults(&cinfo); 
jpeg_set_quality(&cinfo, 92, TRUE); 
jpeg_start_compress(&cinfo, TRUE); 
unsigned char *buf = new unsigned char[width * 3]; 
while (cinfo.next_scanline < height) { 
    for (int i = 0; i < cinfo.image_width; i += 2) { 
        buf[i*3] = base[i*2]; 
        buf[i*3+1] = base[i*2+1]; 
        buf[i*3+2] = base[i*2+3]; 
        buf[i*3+3] = base[i*2+2]; 
        buf[i*3+4] = base[i*2+1]; 
        buf[i*3+5] = base[i*2+3]; 
    } 
    jrow[0] = buf; 
    base += width * 2; 
    jpeg_write_scanlines(&cinfo, jrow, 1); 
}
jpeg_finish_compress(&cinfo);
delete[] buf;

如果您的错误或写入函数可以抛出/longjmp,请使用您最喜欢的 auto-ptr 以避免泄漏“buf”。

直接将YCbCr提供给libjpeg比转成RGB更可取,因为它会直接以那种格式存储,从而节省了大量的转换工作。当图像来自网络摄像头或其他视频源时,通常最有效的方法是在某种 YCbCr(例如 YUYV)中获取它。

最后,“U”和“V”在模拟分量视频中的含义略有不同,因此在真正表示 YCbCr 的计算机 API 中 YUV 的命名非常令人困惑。

于 2014-01-06T04:51:33.750 回答
6

libjpeg 还有一个原始数据模式,您可以直接提供原始的下采样数据(这几乎就是您在 YUYV 格式中所拥有的)。这比复制 UV 值只是让 libjpeg 在内部再次缩小它们更有效。

为此,请使用jpeg_write_raw_data而不是jpeg_write_scanlines,默认情况下它一次将处理 16 条扫描线。默认情况下,JPEG 期望 U 和 V 平面被 2 倍下采样。YUYV 格式已经对水平维度进行了下采样,但没有对垂直维度进行下采样,因此我每隔一个扫描线跳过 U 和 V。

初始化:

cinfo.image_width = /* width in pixels */;
cinfo.image_height = /* height in pixels */;
cinfo.input_components = 3;
cinfo.in_color_space = JCS_YCbCr;
jpeg_set_defaults(&cinfo);

cinfo.raw_data_in = true;

JSAMPLE y_plane[16][cinfo.image_width];
JSAMPLE u_plane[8][cinfo.image_width / 2];
JSAMPLE v_plane[8][cinfo.image_width / 2];

JSAMPROW y_rows[16];
JSAMPROW u_rows[8];
JSAMPROW v_rows[8];

for (int i = 0; i < 16; ++i)
{
    y_rows[i] = &y_plane[i][0];
}

for (int i = 0; i < 8; ++i)
{
    u_rows[i] = &u_plane[i][0];
}

for (int i = 0; i < 8; ++i)
{
    v_rows[i] = &v_plane[i][0];
}

JSAMPARRAY rows[] { y_rows, u_rows, v_rows };

压缩:

jpeg_start_compress(&cinfo, true);

while (cinfo.next_scanline < cinfo.image_height)
{
    for (JDIMENSION i = 0; i < 16; ++i)
    {
        auto offset = (cinfo.next_scanline + i) * cinfo.image_width * 2;
        for (JDIMENSION j = 0; j < cinfo.image_width; j += 2)
        {
            y_plane[i][j] = image.data[offset + j * 2 + 0];
            y_plane[i][j + 1] = image.data[offset + j * 2 + 2];

            if (i % 2 == 0)
            {
                u_plane[i / 2][j / 2] = image_data[offset + j * 2 + 1];
                v_plane[i / 2][j / 2] = image_data[offset + j * 2 + 3];
            }
        }
    }

    jpeg_write_raw_data(&cinfo, rows, 16);
}

jpeg_finish_compress(&cinfo);

与@JonWatte 的答案相比,使用这种方法我能够将压缩时间减少约 33%。但是,此解决方案并不适合所有人。一些警告:

  • 您只能压缩尺寸为 8 的倍数的图像。如果您有不同大小的图像,则必须编写代码以填充边缘。但是,如果您从相机获取图像,则很可能是这种方式。
  • 由于我只是跳过交替扫描线的颜色值而不是像平均它们这样更高级的东西,因此质量有些受损。不过,对于我的应用程序来说,速度比质量更重要。
  • 它现在的编写方式在堆栈上分配了大量内存。这对我来说是可以接受的,因为我的图像很小 (640x480) 并且有足够的内存可用。

libjpeg-turbo 的文档:https ://raw.githubusercontent.com/libjpeg-turbo/libjpeg-turbo/master/libjpeg.txt

于 2017-04-11T18:07:54.880 回答