1

我正在为一个教育网络应用程序构建一个后端程序,该应用程序的前端显示某物的视频(可能是服务器上的一些视频),同时使用网络摄像头记录用户对视频的响应。在此之后,服务器端有一些处理。我想将前端移植到 iOS。我做了一些搜索,但我不清楚他们是否回答了这个确切的问题。请让我知道是否有办法在屏幕上播放另一个视频时同时从 iOS 设备前置摄像头录制?我的问题也与技术可行性和苹果公司的相关规则有关。

如果这是重复的,请让我知道它是重复的问题,因为我无法找到一个好的答案。谢谢!

哈里什。

4

1 回答 1

1

这样做应该没有问题,但是您需要监控性能,因为相机会严重消耗 iOS 处理器和内存,视频也是如此。

对于这两种类型的活动,您可以使用作为 iOS SDK 一部分提供的 AV Foundation 框架。您将在屏幕上提供视频,然后在应用程序的单独部分中从屏幕上捕获视频(它们是两个相对不相关的区域 - 唯一真正重要的是告诉相机记录多长时间以进行同步两个上)。要从摄像头捕获视频,而不是将其放在屏幕上,您需要在 AVCaptureSession 中手动监控从摄像头返回的媒体。

于 2012-08-10T12:42:57.157 回答