0

我正在使用 OpenFrameworks 和 OpenGL ES 1.1 开发 iPad 应用程序。我需要显示带有 alpha 通道的视频。为了模拟它,我有一个 RGB 视频(没有任何 alpha 通道)和另一个仅包含 alpha 通道的视频(在每个 RGB 通道上,因此白色部分对应于可见部分,黑色对应于不可见部分)。每个视频都是一个 OpenGL 纹理。

在 OpenGL ES 1.1 中没有着色器,所以我找到了这个解决方案(这里:OpenGL - mask with multiple textures):

glEnable(GL_BLEND);
// Use a simple blendfunc for drawing the background
glBlendFunc(GL_ONE, GL_ZERO);
// Draw entire background without masking
drawQuad(backgroundTexture);
// Next, we want a blendfunc that doesn't change the color of any pixels,
// but rather replaces the framebuffer alpha values with values based
// on the whiteness of the mask. In other words, if a pixel is white in the mask,
// then the corresponding framebuffer pixel's alpha will be set to 1.
glBlendFuncSeparate(GL_ZERO, GL_ONE, GL_SRC_COLOR, GL_ZERO);
// Now "draw" the mask (again, this doesn't produce a visible result, it just
// changes the alpha values in the framebuffer)
drawQuad(maskTexture);
// Finally, we want a blendfunc that makes the foreground visible only in
// areas with high alpha.
glBlendFunc(GL_DST_ALPHA, GL_ONE_MINUS_DST_ALPHA);
drawQuad(foregroundTexture);

这正是我想要做的,但 glBlendFuncSeparate() 在 OpenGL ES 1.1(或 iOS)中不存在。我正在尝试用 glColorMask 来做,我发现了这个:Can't get masking to normal work with OpenGL

但它也不好用,我猜是因为他的蒙版纹理文件包含一个“真正的”阿尔法通道,而不是我的。

4

1 回答 1

1

我强烈建议您改为计算单个 RGBA 纹理。

这将更容易,更快(因为您每帧发送 2 个 RGBA 纹理 - 是的,您的 RGB 纹理实际上是由硬件以 RGBA 编码的,而 A 被忽略)

glColorMask 不会帮助你,因为它只是说“完全打开或关闭这个通道”。

如果你有 glBlendFuncSeparate 可以帮助你,但同样,它不是一个好的解决方案:你通过发送两倍于所需的数据来破坏你的(非常有限的)iphone带宽。

更新 :

由于您使用的是 OpenFrameworks,并根据其源代码(https://github.com/openframeworks/openFrameworks/blob/master/libs/openFrameworks/gl/ofTexture.cpphttps://github.com/openframeworks/ openFrameworks/blob/master/libs/openFrameworks/video/ofVideoPlayer.cpp):

  • 使用 ofVideoPlayer::setUseTexture(false) 使 ofVideoPlayer::update 不会将数据上传到显存;
  • 使用 ofVideoPlayer::getPixels 获取视频数据
  • 在 RGBA 纹理中交错结果(您可以使用 GL_RGBA ofTexture 和 ofTexture::loadData)
  • 使用 ofTexture::Draw 绘制(这就是 ofVideoPlayer 所做的)
于 2012-07-26T10:09:18.837 回答