0

一些 iOS 设备的摄像头能够达到 720P,而另一些则是 1080P。

保持屏幕尺寸固定,显然 1080P 将提供更好的画面,因为我们在相同的屏幕尺寸中安装了更多像素。

但是,如果我们想使用以下方法操作像素:

-(void) captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection 

并且为了争论,我们不会在任何地方渲染它们,而是对它们进行计算。

显然,缓冲区的高度和宽度会更大,但 1080P 相机是否捕获更多像素,因为可能是因为相机“视野”更宽,因此没有提高质量,或者 1080p 相机是否在相同的“视野”内工作720p 相机的视觉”,它只是每英寸捕获更多像素,因此即使我不将缓冲区输出到图像,我也应该期望帧缓冲区有更多“颗粒/细节”。

谢谢

4

1 回答 1

2

它们具有相同的视野,唯一的区别是 1080 从同一区域捕获更多像素。这就是为什么帧更大的原因,如果你在哪里打印原始帧,你会看到 1080 图像比 720 大,但图像是相同的。所以当你在同一个窗口中显示这个时,1080 看起来更漂亮。但是,所需的内存较高且帧的获取速度较低,如果您启用了“丢弃延迟帧”选项,您可能还会注意到 1080 分辨率下的丢帧率更高。

根据您的计算速度,您可能不得不进一步降低它,例如,如果您在哪里执行重型 OpenCV 风格的图像处理,如果需要平滑度,则使用 1080 根本不可能。

顺便说一句,这不是 iOS 或 OpenGL 问题。它只是解决方案的工作方式。甚至电视广播的质量也遵循相同的原则。

于 2013-01-10T01:31:47.537 回答