12

我有一个简单的 C++ 应用程序,它使用 FFmpeg 3.2 接收 H264 RTP 流。为了节省 CPU,我使用编解码器 h264_cuvid 进行解码部分。我的 FFmpeg 3.2 是在启用硬件加速的情况下编译的。事实上,如果我执行以下命令:

ffmpeg -hwaccels

我明白了

cuvid

这意味着我的 FFmpeg 设置可以与我的 NVIDIA 卡“对话”。该函数avcodec_decode_video2为我提供的帧具有像素格式AV_PIX_FMT_CUDA。我需要将这些帧转换为带有AV_PIX_FMT_RGB. 不幸的是,我无法使用众所周知的函数进行转换sws_getContext,因为不支持sws_scale像素格式。AV_PIX_FMT_CUDA如果我尝试使用 swscale,则会收到错误消息:

“不支持 cuda 作为输入像素格式”

你知道如何将 FFmpegAVFrame从转换AV_PIX_FMT_CUDAAV_PIX_FMT_RGB吗?(代码片段将不胜感激)

4

3 回答 3

6

这是我对最新FFMPeg 4.1版本的硬件解码的理解。以下是我研究源代码后的结论。

首先,我建议从 hw_decode 示例中启发自己:

https://github.com/FFmpeg/FFmpeg/blob/release/4.1/doc/examples/hw_decode.c

使用新的 API,当您使用avcodec_send_packet()将数据包发送到编码器时,然后使用avcodec_receive_frame()检索解码的帧。

有两种不同的类型AVFrame:一种是存储在“CPU”内存(又名 RAM)中的软件,另一种是存储在显卡内存中的硬件。

从硬件获取 AVFrame

要检索硬件帧并将其转换为可读的、可转换的(使用 swscaler)AVFrame,需要使用av_hwframe_transfer_data()从图形卡中检索数据。然后看检索帧的像素格式,使用nVidia解码时通常是NV12格式。

// According to the API, if the format of the AVFrame is set before calling 
// av_hwframe_transfer_data(), the graphic card will try to automatically convert
// to the desired format. (with some limitation, see below)
m_swFrame->format = AV_PIX_FMT_NV12;

// retrieve data from GPU to CPU
err = av_hwframe_transfer_data(
     m_swFrame, // The frame that will contain the usable data.
     m_decodedFrame, // Frame returned by avcodec_receive_frame()
     0);

const char* gpu_pixfmt = av_get_pix_fmt_name((AVPixelFormat)m_decodedFrame->format);
const char* cpu_pixfmt = av_get_pix_fmt_name((AVPixelFormat)m_swFrame->format);

列出支持的“软件”像素格式

如果要选择像素格式,请注意此处,并非所有 AVPixelFormat 都受支持。AVHWFramesConstraints是你的朋友:

AVHWDeviceType type = AV_HWDEVICE_TYPE_CUDA;
int err = av_hwdevice_ctx_create(&hwDeviceCtx, type, nullptr, nullptr, 0);
if (err < 0) {
    // Err
}

AVHWFramesConstraints* hw_frames_const = av_hwdevice_get_hwframe_constraints(hwDeviceCtx, nullptr);
if (hw_frames_const == nullptr) {
    // Err
}

// Check if we can convert the pixel format to a readable format.
AVPixelFormat found = AV_PIX_FMT_NONE;
for (AVPixelFormat* p = hw_frames_const->valid_sw_formats; 
    *p != AV_PIX_FMT_NONE; p++)
{
    // Check if we can convert to the desired format.
    if (sws_isSupportedInput(*p))
    {
        // Ok! This format can be used with swscale!
        found = *p;
        break;
    }
}

// Don't forget to free the constraint object.
av_hwframe_constraints_free(&hw_frames_const);

// Attach your hw device to your codec context if you want to use hw decoding.
// Check AVCodecContext.hw_device_ctx!

最后,一种更快的方法可能是av_hwframe_transfer_get_formats()函数,但您至少需要解码一帧。

希望这会有所帮助!

于 2019-03-28T13:16:29.230 回答
2

我不是 ffmpeg 专家,但我遇到了类似的问题并设法解决了它。我是AV_PIX_FMT_NV12从 cuvid(mjpeg_cuvid 解码器)获得的,并想要AV_PIX_FMT_CUDA进行 cuda 处理。

我发现在解码帧之前设置像素格式是有效的。

    pCodecCtx->pix_fmt = AV_PIX_FMT_CUDA; // change format here
    avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);
    // do something with pFrame->data[0] (Y) and pFrame->data[1] (UV)

您可以使用 pix_fmts 检查您的解码器支持哪些像素格式:

    AVCodec *pCodec = avcodec_find_decoder_by_name("mjpeg_cuvid");
    for (int i = 0; pCodec->pix_fmts[i] != AV_PIX_FMT_NONE; i++)
            std::cout << pCodec->pix_fmts[i] << std::endl;

我确信有更好的方法可以做到这一点,但我随后使用列表将整数像素格式 ID 映射到人类可读的像素格式。

如果这不起作用,您可以执行 cudaMemcpy 将像素从设备传输到主机:

    cudaMemcpy(pLocalBuf pFrame->data[0], size, cudaMemcpyDeviceToHost);

从 YUV 到 RGB/RGBA 的转换可以通过多种方式完成。此示例使用 libavdevice API 完成此操作。

于 2017-11-02T19:18:29.027 回答
2

您必须使用它vf_scale_npp来执行此操作。您可以使用其中一个nppscale_deinterleave,也可以nppscale_resize根据您的需要使用。

两者都有相同的输入参数,它们是AVFilterContext应该用 初始化nppscale_initNPPScaleStageContext采用你的输入/输出像素格式和两个AVFrame,当然是你的输入和输出帧。

有关更多信息,您可以查看npplib\nppscale定义,该定义将从 ffmpeg 3.1 开始执行 CUDA 加速格式转换和缩放。

无论如何,我建议为此直接使用NVIDIA Video Codec SDK

于 2017-11-01T07:41:00.750 回答