1

我正在尝试学习在 Cocoa 中使用不同的 ffmpeg 库,并且我正在尝试借助 Core Video 来显示帧。看来我已经让 CV 回调工作了,它得到了我尝试放入 CVImageBufferRef 的帧,然后我用 Core Image 绘制。

问题是我试图让 PIX_FMT_YUYV422 与 libswscale 一起工作,但是一旦我将像素格式更改为 PIX_FMT_YUV420P 以外的任何其他格式,它就会因 EXC_BAD_ACCESS 而崩溃。

只要我使用YUV420P,程序就会运行,尽管它不能正常显示。我怀疑不支持像素格式,所以我想尝试PIX_FMT_YUYV422。

我之前运行过它并成功地用 PIX_FMT_RGB24 编写了 PPM 文件。出于某种原因,它现在就在我身上崩溃了,我看不出有什么问题。

我在这里有点不知所措,但这是我更喜欢学习的方式。:)

这是我分配 AVFrame 的方式:

inFrame = avcodec_alloc_frame();
outFrame = avcodec_alloc_frame();
int frameBytes = avpicture_get_size(PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);


uint8_t *frameBuffer = malloc(frameBytes);
avpicture_fill((AVPicture *)outFrame, frameBuffer, PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);

然后我尝试像这样通过 swscale 运行它:

static struct SwsContext *convertContext;


 if (convertContext == NULL) {
  int w = cdcCtx->width;
  int h = cdcCtx->height;
  convertContext = sws_getContext(w, h, cdcCtx->pix_fmt, outWidth, outHeight, PIX_FMT_YUYV422, SWS_BICUBIC, NULL, NULL, NULL);
  if (convertContext == NULL) {
   NSLog(@"Cannot initialize the conversion context!");
   return NO;
  }
 }

 sws_scale(convertContext, inFrame->data, inFrame->linesize, 0, outHeight, outFrame->data, outFrame->linesize);

最后,我尝试将其写入像素缓冲区以与 Core Image 一起使用:

int ret = CVPixelBufferCreateWithBytes(0, outWidth, outHeight, kYUVSPixelFormat, outFrame->data[0], outFrame->linesize[0], 0, 0, 0, &currentFrame);

它以 420P 运行,但与像素缓冲区的 kYUVSPixelformat 不匹配,据我所知,它不接受 YUV420。

我真的很感激任何帮助,无论多么小,因为它可能会帮助我继续努力。:)

4

2 回答 2

1

这当然不是一个完整的代码示例,因为您从不将任何内容解码到输入帧中。如果你这样做,它看起来是正确的。

你也不需要填充输出图片,甚至不需要为它分配一个 AVFrame,真的。

于 2009-11-04T00:16:47.657 回答
0

YUV420P 是平面格式。因此,AVFrame.data[0]并不是全部。我看到一个错误

int ret = CVPixelBufferCreateWithBytes(0, outWidth, outHeight, kYUVSPixelFormat, outFrame->data[0], outFrame->linesize[0], 0, 0, 0, &currentFrame);

对于平面格式,您必须从AVFrame.data[0]高达AVFrame.data[3]

于 2010-06-15T21:22:51.387 回答