我计划开发一个使用 C++、Qt 和 OpenGL 进行实时视频操作的工具。视频叠加不是一个选项,因为着色器应该用于帧处理。目前我想象以下步骤顺序:
- 解码视频 (CPU)
- 预处理它(可选,CPU)
- 将其传输到视频内存(使用 DMA 的 GPU)
- 使用顶点和片段着色器 (GPU) 进一步处理它
- 渲染它(GPU)
我正在寻找一些一般性建议来解释可以在这里使用哪些扩展或技术。是否有充分的理由使用 Direct3D?
如果你是 linux,NVIDIA 最近的 180.xx 系列驱动程序通过 VDPAU api(视频解码和演示)增加了对视频解码的支持。mplayer、vlc、ffmpeg、mythtv等很多大项目都集成了这个api。我不知道所有细节,但它们为许多编解码器提供了 api,包括常见的子操作和比特流操作。
在直接使用 CUDA 之前我会先看看这里(我假设 VDPAU 可能会使用它)
首先,在 PC 上没有明确的方式来使用 DMA。驱动程序可能会使用它,或者可能会使用其他东西。
无论如何,第 3 步将是“更改显卡上的纹理数据”。在 OpenGL 中,它是 PBO(像素缓冲区对象)扩展或旧的 glTexSubImage* 函数。在D3D9 中,它是纹理上的LockRect 或其他方式(例如,划痕纹理上的LockRect,然后blit 成GPU 纹理)。其中任何一个都可能使用 DMA,但您不能确定。
然后数据在纹理中。您可以使用一些着色器将其渲染到屏幕上(例如进行 YCbCr 转换),或者渲染到其他纹理中以进行更复杂的处理效果(例如模糊/发光/...)。
从某种意义上说,使用 Direct3D 更容易,因为有明确定义的“浪费方式”来做事。在 OpenGL 中,有很多选项可以做任何事情,你必须以某种方式找出哪些是快速的(有时不同平台或硬件上的快速路径不同)。
作为替代方案,您可以查看一些用于执行通用 GPU 编程 (GPGPU) 的不同语言,例如 NVIDIA 的 CUDA 或 ATI 的 Stream SDK。不过,根据您的选择,您可以将自己限制在一个品牌的 GPU 上。使用这些语言的原因是在更接近普通高级编程的抽象级别上工作,而不是使用着色器。
我对你想做的事情没有经验,所以我不能说着色器是否真的更适合这项工作,但你可以考虑看看。不得不说,算法设计与普通代码还是有些不同的,需要一些努力才能掌握它(我只使用过 CUDA,但它们似乎都使用了类似的抽象)。
我想如果你在着色器工作方面有相当多的经验,那么学习一个新平台可能不值得你费心费力。
以下步骤应该做到这一点:
将视频解码为 YUV
这通常是解码器库所做的。
作为纹理加载到 OpenGL
将 YUV 转换为 RGB
由于您不想使用叠加层,因此您必须手动转换。这是一个使用着色器的示例。
将转换后的纹理放在四边形上并渲染到屏幕上