我正在阅读有关从 iPhone 相机获取像素数据的教程。
虽然运行和使用此代码没有问题,但我需要获取相机数据的输出(来自 BGRA)并将其转换为 ARGB,以便我可以将它与外部库一起使用。我该怎么做呢?
我正在阅读有关从 iPhone 相机获取像素数据的教程。
虽然运行和使用此代码没有问题,但我需要获取相机数据的输出(来自 BGRA)并将其转换为 ARGB,以便我可以将它与外部库一起使用。我该怎么做呢?
如果您使用的是 iOS 5.0,则可以使用 Accelerate 框架中的 vImage 使用如下代码(取自 Apple 的WebCore 源代码)进行 NEON 优化的颜色组件交换:
vImage_Buffer src;
src.height = height;
src.width = width;
src.rowBytes = srcBytesPerRow;
src.data = srcRows;
vImage_Buffer dest;
dest.height = height;
dest.width = width;
dest.rowBytes = destBytesPerRow;
dest.data = destRows;
// Swap pixel channels from BGRA to RGBA.
const uint8_t map[4] = { 2, 1, 0, 3 };
vImagePermuteChannels_ARGB8888(&src, &dest, map, kvImageNoFlags);
其中width
、height
和srcBytesPerRow
是通过 、 和 从像素缓冲区CVPixelBufferGetWidth()
获得CVPixelBufferGetHeight()
的CVPixelBufferGetBytesPerRow()
。srcRows
将是指向像素缓冲区中字节基地址的指针,并且destRows
是您分配用于保存输出 RGBA 图像的内存。
这应该比简单地迭代字节和交换颜色分量要快得多。
根据图像大小,更快的解决方案是将帧上传到 OpenGL ES,使用它作为纹理渲染一个简单的矩形,然后使用 glReadPixels() 来下拉 RGBA 值。更好的做法是使用 iOS 5.0 的纹理缓存进行上传和下载,在 iPhone 4 上,720p 帧的这个过程只需要 1-3 毫秒。当然,使用 OpenGL ES 意味着要提取更多的支持代码这个关了。