我正在开发一个使用 AVFoundation 和 iDevices 后置摄像头进行实时视频处理的应用程序。AVCaptureSession 配置了 sessionPreset AVCaputeSessionPreset1920x1080(全高清),视频设置 kCVPixelBufferPixelFormatTypeKey=kCVPixelFormatType_32BGRA 并将 CMSampleBufferRef 类型的样本缓冲区输出到 AVCaptureVideoDataOutput 委托。使用视频/界面方向纵向(意味着预期大小为 1080x1920 的帧)。每次到达一帧时,都会从样本缓冲区中检索一个 CVImageBufferRef 以进一步访问它的原始字节。在访问此 CVImageBufferRef 实例的 CVPixelBufferGetBytesPerRow() 时,我得到的值是 4352,这在我看来是完全出乎意料的。我的期望是,每行的字节数反映了整个帧宽度 (1080) 的每个像素 4 字节 (BGRA),从而导致值 4320 (=1080*4bytes)。每行字节数 = 4352,除以 4 字节,得到的帧宽为 1088。有谁知道为什么会发生这种情况?在按像素分析时,我无法使用 1080 的预期宽度,因为它会导致图像失真(检查转换为 UIImage 并保存到磁盘),我绝对需要使用 1088 作为宽度,因此图像是直的并且分析给出正确的结果-但这很奇怪。
由于我使用原始帧字节进行实时分析并希望使用 1080 的宽度,这对我来说非常重要,所以我非常感谢在这个问题上的帮助。
使用的设备: - 装有 iOS 6.0.1 的 iPod touch 5G - 装有 iOS 7.0.2 的 iPhone 5S
代码摘录:
- (uint8_t*) convertSampleBuffer: (CMSampleBufferRef) sampleBuffer {
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer); // = 4352 (=1088*4)
.....
}