问题标签 [avcaptureoutput]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
593 浏览

ios - IOS Capture 12 MP Video (iPhone 6s) 产生 1000x750

根据https://forums.developer.apple.com/thread/21694

iPhone 6s 和 6s Plus 都可以通过 AVCaptureStillImageOutput 在后置摄像头上捕捉 12 兆像素的照片 (4032x3024),并可以通过 AVCaptureVideoDataOutput 向您的进程提供高达 30 fps 的 12 MP 帧。当您使用 AVCaptureSessionPresetPhoto 作为 AVCaptureSession 的 -sessionPreset 时,默认选择 12 兆像素的“420f”格式。

所以我尝试使用以下代码来做到这一点:

我的设备的活动格式设置为:

设备格式: AVCaptureDeviceFormat: 0x12c684630 'vide'/'420f' 4032x3024, { 3- 30 fps}, fov:57.716, 最大变焦:189.00 (upscales @1.00), AF System:2, ISO:23.0-1840.0, SS:0.000013 -0.333333

看起来不错。

captureOutput但是,我在回调中添加了以下代码:

它输出

ImageCameraSource:宽度:1000 高度:750

为什么回调中的分辨率不是4032x3024?

0 投票
0 回答
668 浏览

swift - CMImageBuffer 或 CVImageBuffer 的深拷贝

嗨,我目前正在开发一个需要捕获视频的应用程序,同时应该能够获取帧来混合它们。我遇到的问题是我的帧来自:

混合大约 10-12 帧后会下降。我尝试每 10 帧混合一次,但在 10-12 帧混合后它仍然会下降。

我知道我应该复制 CVImageBuffer 以释放我使用以下方法获得的 imageBuffer: let imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer)

我也知道

只创建浅拷贝,无助于释放原始 imageBuffer

所以我的问题是:我怎样才能创建完整的 a CMSmapleBufferor深层副本CVImageBuffer?我想使用:

但是功能有点压倒性,我不知道从哪里获得所有属性。我相信我可以从给定的CMSmapleBuffer.

这几天我一直在寻找解决方案。如果您需要更多上下文,请随时询问。我希望有人能提供帮助。

0 投票
2 回答
1359 浏览

objective-c - AVCaptureSession 分辨率不会随 AVCaptureSessionPreset 改变

我想通过 AV Foundation 更改我在 OS X 上使用相机拍摄的照片的分辨率。

但即使我改变了我的 AVCaptureSession 的分辨率,输出图片的大小也不会改变。我总是有一张 1280x720 的图片。

我想要较低的分辨率,因为我在实时过程中使用这些图片,并且我希望程序更快。

这是我的代码示例:

我应该在我的代码中更改什么?

0 投票
1 回答
3386 浏览

ios - 如何在 iOS 应用程序中停止 captureOutput

我找到了使用 QR 码的教程 -在这里。使用这种方法,我可以从设备摄像头获取图像并在那里找到 QR 码。

问题是当我更改 ViewController 甚至停止 AVCaptureSession 时 - 似乎我的相机仍在工作并且设备正在搜索 QR 码。那么我应该如何禁用 captureOutput 方法呢?

0 投票
2 回答
6057 浏览

ios - 如何使用 AVCaptureVideoDataOutput 录制视频

我正在使用 AVCaptureSession 获取相机输出并成功添加了音频和视频输入和输出。

使用AVCaptureMovieFileOutput可以将输出视频保存在照片库中

但我使用AVCaptureVideoDataOutput作为输出,对我从代表处获得的元数据进行额外的工作并尝试录制视频,但我无法获得任何方法来开始和停止录制视频。

建议如何使用AVCaptureVideoDataOutput录制视频

0 投票
1 回答
1033 浏览

ios - 更改 AVCaptureOutput 时如何避免 AVCaptureVideoPreviewLayer 闪烁

在此处输入图像描述

我有一个正在运行的会话和一个预览层,显示在我的视图中。

我需要在我的应用程序中多次更改 AVCaptureStillImageOutput、AVCaptureMetadataOutput 和 AVCaptureVideoDataOutput 之间的输出,而我的预览应该流畅地显示而不会闪烁。

问题:当我向此会话添加输出时,预览会闪烁(请找到我附加的 gif)。

特定行导致问题:

我的问题:如何避免 AVCaptureVideoPreviewLayer 在将输出添加到正在运行的会话时闪烁?

0 投票
1 回答
535 浏览

macos - 如何保持两个 AVCaptureMovieFileOutput 同步

我有两个相机输入进入 OSX 应用程序,我正在尝试使用 AVCaptureMovieFileOutput 保存它们。他们的视频很快就会不同步。经过最小测试后,它们可以关闭 1 到 5 秒。经过一个小时的测试后,它们将关闭 20 秒。我觉得必须有某种简单的解决方案来保持两个输出同步。我们尝试对会话和输出使用相同的设备,但遇到了同样的问题。我们尝试将 fps 降至 15,但仍然没有运气。

设置输出

开始录制

0 投票
1 回答
1125 浏览

ios - iOS AVFoundation 的 AVCapturePhotoOutput

我正在尝试摆脱 AVCaptureStillImageOutput 并采用iOS 10 中引入的AVCapturePhotoOutput 。

但是,我的部署操作系统是 iOS 9.0。AVCapturePhotoOutput 还会在 iOS 9 上运行吗?

0 投票
1 回答
496 浏览

ios - 使用 iPhone 7 Plus 相机同时拍摄照片

有没有办法用 iPhone 7 Plus 的长焦镜头和广角镜头拍照?

我探索了不同的方法,但我能想到的最好方法是通过删除输入AVCaptureDeviceTypeBuiltInTelephotoCamera并添加来自AVCaptureDeviceTypeBuiltInWideangleCamera. 这大约需要 0.5 秒,但是我想同时捕捉它。从硬件的角度来看,这应该是可能的,因为 Apple 在使用AVCaptureDeviceTypeBuiltInDuoCamera.

有人知道(几乎)同时从两个相机拍摄照片的其他方法吗?

谢谢!

0 投票
1 回答
789 浏览

ios - 在 Swift for iOS 中使用 AVFoundation 录制视频

我无法使用提供的代码录制视频。我正在使用为录制视频而创建的示例代码。

具体来说,我无法在没有此错误的情况下编译此行:“无法将 'ViewController' 类型的值转换为指定类型 'AVCaptureFileOutputRecordingDelegate'

此行位于 IBAction 函数中:

其余代码在这里:

感谢您提供任何帮助!