我正在测试新的 Camera2 API,并且能够以YUV_420_888
格式捕获相机预览。接下来我需要做的是将此数据提供给接受byte[]
参数的图像处理库。
我找到了转换YUV_420_888
为 RGB等的示例,但我仍然需要将生成的 Bitmap 转换为byte[]
through ByteArrayOutputStream
,经过试验,这极大地减慢了应用程序的速度。
我的问题是,我如何有效地转换YUV_420_888
为byte[]
?
我正在测试新的 Camera2 API,并且能够以YUV_420_888
格式捕获相机预览。接下来我需要做的是将此数据提供给接受byte[]
参数的图像处理库。
我找到了转换YUV_420_888
为 RGB等的示例,但我仍然需要将生成的 Bitmap 转换为byte[]
through ByteArrayOutputStream
,经过试验,这极大地减慢了应用程序的速度。
我的问题是,我如何有效地转换YUV_420_888
为byte[]
?
图像处理库想要的 byte[] 数组的实际格式是什么?是RGB吗?YUV平面?YUV半平面?
假设它是 RGB,假设您参考将 YUV_420_888 转换为 RGB,您可以修改该示例以不从分配中创建位图 - 只需将Allocation.copyTo与 byte[] 一起使用而不是位图。
我花了很多时间寻找解决方案,所以我从 stackoverflow 上其他人的回答中找到了它,我想分享我的自定义代码,该代码已针对循环数进行了优化,它适用于 YUV420 Camera2 图像API :D
public static byte[] imageToMat(Image image) {
Image.Plane[] planes = image.getPlanes();
ByteBuffer buffer0 = planes[0].getBuffer();
ByteBuffer buffer1 = planes[1].getBuffer();
ByteBuffer buffer2 = planes[2].getBuffer();
int offset = 0;
int width = image.getWidth();
int height = image.getHeight();
byte[] data = new byte[image.getWidth() * image.getHeight() * ImageFormat.getBitsPerPixel(ImageFormat.YUV_420_888) / 8];
byte[] rowData1 = new byte[planes[1].getRowStride()];
byte[] rowData2 = new byte[planes[2].getRowStride()];
int bytesPerPixel = ImageFormat.getBitsPerPixel(ImageFormat.YUV_420_888) / 8;
// loop via rows of u/v channels
int offsetY = 0;
int sizeY = width * height * bytesPerPixel;
int sizeUV = (width * height * bytesPerPixel) / 4;
for (int row = 0; row < height ; row++) {
// fill data for Y channel, two row
{
int length = bytesPerPixel * width;
buffer0.get(data, offsetY, length);
if ( height - row != 1)
buffer0.position(buffer0.position() + planes[0].getRowStride() - length);
offsetY += length;
}
if (row >= height/2)
continue;
{
int uvlength = planes[1].getRowStride();
if ( (height / 2 - row) == 1 ) {
uvlength = width / 2 - planes[1].getPixelStride() + 1;
}
buffer1.get(rowData1, 0, uvlength);
buffer2.get(rowData2, 0, uvlength);
// fill data for u/v channels
for (int col = 0; col < width / 2; ++col) {
// u channel
data[sizeY + (row * width)/2 + col] = rowData1[col * planes[1].getPixelStride()];
// v channel
data[sizeY + sizeUV + (row * width)/2 + col] = rowData2[col * planes[2].getPixelStride()];
}
}
}
return data;
}