我正在尝试学习在 Cocoa 中使用不同的 ffmpeg 库,并且我正在尝试借助 Core Video 来显示帧。看来我已经让 CV 回调工作了,它得到了我尝试放入 CVImageBufferRef 的帧,然后我用 Core Image 绘制。
问题是我试图让 PIX_FMT_YUYV422 与 libswscale 一起工作,但是一旦我将像素格式更改为 PIX_FMT_YUV420P 以外的任何其他格式,它就会因 EXC_BAD_ACCESS 而崩溃。
只要我使用YUV420P,程序就会运行,尽管它不能正常显示。我怀疑不支持像素格式,所以我想尝试PIX_FMT_YUYV422。
我之前运行过它并成功地用 PIX_FMT_RGB24 编写了 PPM 文件。出于某种原因,它现在就在我身上崩溃了,我看不出有什么问题。
我在这里有点不知所措,但这是我更喜欢学习的方式。:)
这是我分配 AVFrame 的方式:
inFrame = avcodec_alloc_frame();
outFrame = avcodec_alloc_frame();
int frameBytes = avpicture_get_size(PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);
uint8_t *frameBuffer = malloc(frameBytes);
avpicture_fill((AVPicture *)outFrame, frameBuffer, PIX_FMT_YUYV422, cdcCtx->width, cdcCtx->height);
然后我尝试像这样通过 swscale 运行它:
static struct SwsContext *convertContext;
if (convertContext == NULL) {
int w = cdcCtx->width;
int h = cdcCtx->height;
convertContext = sws_getContext(w, h, cdcCtx->pix_fmt, outWidth, outHeight, PIX_FMT_YUYV422, SWS_BICUBIC, NULL, NULL, NULL);
if (convertContext == NULL) {
NSLog(@"Cannot initialize the conversion context!");
return NO;
}
}
sws_scale(convertContext, inFrame->data, inFrame->linesize, 0, outHeight, outFrame->data, outFrame->linesize);
最后,我尝试将其写入像素缓冲区以与 Core Image 一起使用:
int ret = CVPixelBufferCreateWithBytes(0, outWidth, outHeight, kYUVSPixelFormat, outFrame->data[0], outFrame->linesize[0], 0, 0, 0, ¤tFrame);
它以 420P 运行,但与像素缓冲区的 kYUVSPixelformat 不匹配,据我所知,它不接受 YUV420。
我真的很感激任何帮助,无论多么小,因为它可能会帮助我继续努力。:)