我到处搜索并尝试混合和匹配不同的代码位,但我没有找到任何有用的东西或任何有相同问题的人。
基本上,我希望能够创建包含标准 UIKit 元素以及来自相机的图像(视频预览层)的 iPhone 应用程序的视频演示。我不想使用 airPlay 或 iOS 模拟器投影到桌面然后捕获,因为我希望能够在公共场合制作视频。我已经成功地能够使用此代码对屏幕进行视频捕获 但视频预览层为空白。我读到它是因为它使用openGL,而我正在捕获的是来自CPU,而不是GPU。我已成功使用 Brad Larson 的 GPUImage 来捕获视频预览层,但它没有捕获 UIView 的其余部分。我已经看到将两者结合并转换为图像的代码,但我不确定这对于实时视频捕获是否太慢。有人可以指出我正确的方向吗?