27

我正在开发一个基于libyuvCamera API 2的相机应用程序,我发现了几个问题。我想转换从 ImageReader 检索到的图像,但是在可重新处理的表面中进行缩放时遇到了一些问题。YUV_420_888

本质上:图像带有绿色调而不是相应的色调(我正在导出 .yuv 文件并使用http://rawpixels.net/检查它们)。

您可以在此处查看输入示例:在此处输入图像描述

执行缩放后得到的结果:在此处输入图像描述

我认为我在跨步方面做错了什么,或者提供了无效的 YUV 格式(也许我必须将图像转换为另一种格式?)。但是,我无法弄清楚错误在哪里,因为我不知道如何将绿色与缩放算法相关联。

这是我正在使用的转换代码,您可以忽略返回 NULL,因为还有与问题无关的进一步处理。

#include <jni.h>
#include <stdint.h>
#include <android/log.h>
#include <inc/libyuv/scale.h>
#include <inc/libyuv.h>
#include <stdio.h>


#define  LOG_TAG    "libyuv-jni"

#define unused(x) UNUSED_ ## x __attribute__((__unused__))
#define  LOGD(...)  __android_log_print(ANDROID_LOG_DEBUG, LOG_TAG, __VA_ARGS__)
#define  LOGE(...)  __android_log_print(ANDROID_LOG_ERROR, LOG_TAG, __VA_ARGS_)

struct YuvFrame {
    int width;
    int height;
    uint8_t *data;
    uint8_t *y;
    uint8_t *u;
    uint8_t *v;
};

static struct YuvFrame i420_input_frame;
static struct YuvFrame i420_output_frame;

extern "C" {

JNIEXPORT jbyteArray JNICALL
Java_com_android_camera3_camera_hardware_session_output_photo_yuv_YuvJniInterface_scale420YuvByteArray(
        JNIEnv *env, jclass /*clazz*/, jbyteArray yuvByteArray_, jint src_width, jint src_height,
        jint out_width, jint out_height) {

    jbyte *yuvByteArray = env->GetByteArrayElements(yuvByteArray_, NULL);

    //Get input and output length
    int input_size = env->GetArrayLength(yuvByteArray_);
    int out_size = out_height * out_width;

    //Generate input frame
    i420_input_frame.width = src_width;
    i420_input_frame.height = src_height;
    i420_input_frame.data = (uint8_t *) yuvByteArray;
    i420_input_frame.y = i420_input_frame.data;
    i420_input_frame.u = i420_input_frame.y + input_size;
    i420_input_frame.v = i420_input_frame.u + input_size / 4;

    //Generate output frame
    free(i420_output_frame.data);
    i420_output_frame.width = out_width;
    i420_output_frame.height = out_height;
    i420_output_frame.data = new unsigned char[out_size * 3 / 2];
    i420_output_frame.y = i420_output_frame.data;
    i420_output_frame.u = i420_output_frame.y + out_size;
    i420_output_frame.v = i420_output_frame.u + out_size / 4;
    libyuv::FilterMode mode = libyuv::FilterModeEnum::kFilterBilinear;

    int result = I420Scale(i420_input_frame.y, i420_input_frame.width,
                           i420_input_frame.u, i420_input_frame.width / 2,
                           i420_input_frame.v, i420_input_frame.width / 2,
                           i420_input_frame.width, i420_input_frame.height,
                           i420_output_frame.y, i420_output_frame.width,
                           i420_output_frame.u, i420_output_frame.width / 2,
                           i420_output_frame.v, i420_output_frame.width / 2,
                           i420_output_frame.width, i420_output_frame.height,
                           mode);
    LOGD("Image result %d", result);
    env->ReleaseByteArrayElements(yuvByteArray_, yuvByteArray, 0);
    return NULL;
}
4

5 回答 5

1

您可以尝试使用它y_size而不是数组的完整大小的代码。

    ...
    //Get input and output length
    int input_size = env->GetArrayLength(yuvByteArray_);
    int y_size = src_width * src_height;
    int out_size = out_height * out_width;

    //Generate input frame
    i420_input_frame.width = src_width;
    i420_input_frame.height = src_height;
    i420_input_frame.data = (uint8_t *) yuvByteArray;
    i420_input_frame.y = i420_input_frame.data;
    i420_input_frame.u = i420_input_frame.y + y_size;
    i420_input_frame.v = i420_input_frame.u + y_size / 4;

    //Generate output frame
    free(i420_output_frame.data);
    i420_output_frame.width = out_width;
    i420_output_frame.height = out_height;
    i420_output_frame.data = new unsigned char[out_size * 3 / 2];
    i420_output_frame.y = i420_output_frame.data;
    i420_output_frame.u = i420_output_frame.y + out_size;
    i420_output_frame.v = i420_output_frame.u + out_size / 4;
    ...

可能您的代码基于该https://github.com/begeekmyfriend/yasea/blob/master/library/src/main/libenc/jni/libenc.cc并且根据该代码您必须使用y_size

于 2017-03-29T08:52:02.240 回答
1

您对框架的输入大小有疑问:

它应该是:

int input_array_size = env->GetArrayLength(yuvByteArray_);
int input_size = input_array_size * 2 / 3; //This is the frame size

例如,如果您有一个 6x4 的框架

香奈儿y尺寸:6*4 = 24

 1 2 3 4 5 6
 _ _ _ _ _ _
|_|_|_|_|_|_| 1
|_|_|_|_|_|_| 2
|_|_|_|_|_|_| 3
|_|_|_|_|_|_| 4

香奈儿尺寸:3*2 = 6

  1   2   3 
 _ _ _ _ _ _
|   |   |   | 
|_ _|_ _|_ _| 1
|   |   |   | 
|_ _|_ _|_ _| 2

香奈儿v尺寸:3*2 = 6

  1   2   3 
 _ _ _ _ _ _
|   |   |   | 
|_ _|_ _|_ _| 1
|   |   |   | 
|_ _|_ _|_ _| 2

数组大小 = 6*4+3*2+3*2 = 36
但实际帧大小 = 通道y大小 = 36 * 2 / 3 = 24

于 2017-04-03T18:02:15.857 回答
0

gmetax 几乎是正确的。

您正在使用整个数组的大小,而应该使用 Y 分量的大小,即src_width * src_height.

gmetax 的回答是错误的,因为他在定义输出帧时已经y_size代替了。out_size我相信正确的代码片段如下所示:

//Get input and output length
int input_size = env->GetArrayLength(yuvByteArray_);
int y_size = src_width * src_height;
int out_size = out_height * out_width;

//Generate input frame
i420_input_frame.width = src_width;
i420_input_frame.height = src_height;
i420_input_frame.data = (uint8_t *) yuvByteArray;
i420_input_frame.y = i420_input_frame.data;
i420_input_frame.u = i420_input_frame.y + y_size;
i420_input_frame.v = i420_input_frame.u + y_size / 4;

//Generate output frame
free(i420_output_frame.data);
i420_output_frame.width = out_width;
i420_output_frame.height = out_height;
i420_output_frame.data = new unsigned char[out_size * 3 / 2];
i420_output_frame.y = i420_output_frame.data;
i420_output_frame.u = i420_output_frame.y + out_size;
i420_output_frame.v = i420_output_frame.u + out_size / 4;
于 2017-03-29T12:54:02.397 回答
0

您正在尝试像 YUV420 一样缩放您的 YUV422 图像,难怪颜色都被弄乱了。首先,您需要弄清楚 YUV 输入缓冲区的确切格式。从YUV_422_888的文档来看,它看起来可能代表平面格式和交错格式(如果像素步幅不是 1)。从您的结果看来,您的源是平面的,并且 Y 平面的处理还可以,但您的错误在于处理 U 和 V 平面。要正确缩放:

  • 你必须弄清楚你的UV平面是交错的还是平面的。它们很可能也是平面的。
  • 使用ScalePlanefrom libyuv 来缩放UV分开。也许如果你踏入I420Scale它需要ScalePlane单独的飞机。U做同样的事情,但为你的和平面使用正确的V 线尺寸(每个都比 I420Scale 预期的大两倍)。

一些提示如何确定您是否具有平面或交错U,并且V:尝试跳过图像的缩放并保存它,以确保您获得正确的结果(与源相同)。然后尝试将U帧或V帧归零,看看你得到了什么。如果UV是平面并且你将U平面设置为零,你应该看到整个图片改变颜色。如果它们是交错的,你会得到一半的画面改变,而另一半保持不变。同样的方式,您可以检查您对平面尺寸、线尺寸和偏移量的假设。一旦您确定了 YUV 格式和布局,如果您的输入是平面的,或者如果您首先有交错输入,您就可以缩放单个平面,您需要解交错平面然后缩放它们。

或者,您可以使用 ffmpeg/libav 中的 libswscale 并尝试不同的格式来找到正确的格式,然后使用 libyuv。

于 2017-05-03T23:49:39.017 回答
0

绿色图像是由其中一架飞机充满 0 造成的。这意味着其中一架飞机是空的。这是因为我是从 YUV NV21 而不是 YUV I420 转换的。来自android中相机框架的图像来自I420 YUVs。

我们需要将它们转换为 YUV I420 才能与 Libyuv 正常工作。之后,我们就可以开始使用库为您提供的多种操作了。比如旋转、缩放等。

以下是有关缩放方法外观的片段:

JNIEXPORT jint JNICALL
Java_com_aa_project_images_yuv_myJNIcl_scaleI420(JNIEnv *env, jclass type,
                                                 jobject srcBufferY,
                                                 jobject srcBufferU,
                                                 jobject srcBufferV,
                                                 jint srcWidth, jint srcHeight,
                                                 jobject dstBufferY,
                                                 jobject dstBufferU,
                                                 jobject dstBufferV,
                                                 jint dstWidth, jint dstHeight,
                                                 jint filterMode) {

    const uint8_t *srcY = static_cast<uint8_t *>(env->GetDirectBufferAddress(srcBufferY));
    const uint8_t *srcU = static_cast<uint8_t *>(env->GetDirectBufferAddress(srcBufferU));
    const uint8_t *srcV = static_cast<uint8_t *>(env->GetDirectBufferAddress(srcBufferV));
    uint8_t *dstY = static_cast<uint8_t *>(env->GetDirectBufferAddress(dstBufferY));
    uint8_t *dstU = static_cast<uint8_t *>(env->GetDirectBufferAddress(dstBufferU));
    uint8_t *dstV = static_cast<uint8_t *>(env->GetDirectBufferAddress(dstBufferV));

    return libyuv::I420Scale(srcY, srcWidth,
                             srcU, srcWidth / 2,
                             srcV, srcWidth / 2,
                             srcWidth, srcHeight,
                             dstY, dstWidth,
                             dstU, dstWidth / 2,
                             dstV, dstWidth / 2,
                             dstWidth, dstHeight,
                             static_cast<libyuv::FilterMode>(filterMode));
}
于 2018-11-15T09:37:38.447 回答