问题标签 [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 如何在 UIImagePickerController 中设置焦点模式
实际上,问题就在问题的标题中。
在AVCaptureDevice中有一个属性 - 焦点模式。UIImagePickerController中没有这样的东西。
所以问题是如何在 UIImagePickerController 中管理焦点设置?
ios - 使用 OCMock 模拟 AVCaptureDevice
我正在尝试为我为AVCaptureVideoPreviewLayer
. 我想使用一个模拟AVCaptureDevice
来传递各种条件,然后确保调用预期的方法来处理实际的聚焦。下面是我正在使用的代码。
这是我到目前为止的测试代码:
我想进行三个测试:
- [AVCaptureDevice devices] 返回 0 个设备,没有任何反应
- [AVCaptureDevice devices] 返回一个不兼容的设备并且没有任何反应
- [AVCaptureDevice devices] 返回兼容设备,上面测试代码通过
所以我想我的问题归结为是否有一种简单的方法来存根和返回[AVCaptureDevice devices]
类方法?或者可以安全地假设只有一个AVCaptureDevice
通过iPhone/iPad
上述条件,所以我可以将设备存储为属性并重写我正在测试的方法,以便我可以注入模拟AVCaptureDevice
?
objective-c - 如何从 AVCapture 中保存电影
过去几天我一直试图弄清楚 AVCapture 并且正在努力保存视频。我的理解是你打电话[movieFileOutput startRecordingToOutputFileURL:outputURL recordingDelegate:self];
,然后在以后你可以打电话[movieFileOutput stopRecording];
,然后它应该调用委托方法-(void)captureOutput:(AVCaptureFileOutput *)captureOutput didFinishRecordingToOutputFileAtURL:(NSURL *)outputFileURL fromConnections:(NSArray *)connections error:(NSError *)error{
。之后,我应该可以用类似的东西保存电影,UISaveVideoAtPathToSavedPhotosAlbum([outputFileURL path] ,nil,nil,nil);
但显然我做得不对。当我开始会话时,startRecordingToOutputFile
它会立即调用 delegate didFinishRecording
。我不知道为什么。这是我的代码:
很抱歉,它太长了。我希望很多这些代码对其他人有用。
ios - AVCaptureDevice videoZoomFactor
我正在使用我的相机做一个项目AVFoundation/AVFoundation.h
。现在,我想实现缩放屏幕。
查了一下文档AVCaptureDevice
,发现有一个参数叫“ videoZoomFactor
”,表示可以用来定义缩放率。
因此,我使用了以下代码:
但是应用程序崩溃并显示“videoZoomFactor
超出范围。”这是怎么发生的?我应该怎么做才能变焦相机?
ios - 使用 iPhone5 无法录制声音
我正在使用下面的代码来捕捉声音。它适用于除 iPhone5 ios7 之外的所有设备。
请帮忙。
ios - 为 AVCaptureSession 设置自定义 AVFrameRateRange
我正在尝试使用 AVCaptureSession 每秒拍摄 5 张照片,但我不确定我是否理解 AVFrameRange 的含义。目前我有一些设置设备的代码:
并尝试将activeVideoMinFrameDuration
and设置activeVideoMaxFrameDuration
为自定义值CMTimeMake(1, 5)
. Apple 告诉我我只能使用他们提供的 AVFrameRanges 之一。
当我对它们进行 NSLogged 时,我得到 (2, 30)、(2,60) 和 (2,24)。我首先想知道这意味着什么?这是相机运行的帧速率还是捕获帧的间隔(即我正在尝试做的事情)?
如果不是,我该怎么做才能在我的 sampleBufferDelegate 方法上每秒保存 5 帧?目前它给了我每一帧,因为每次有一个帧时都会调用该方法,所以我只需要一些关于如何每秒抓取 5 个的指针。
ios - 为什么使用新的 iOS 7 API 扫描条形码真的很慢?
我目前正在尝试使用 iOS 7 的最新 api 来扫描代码 39 条码,但这让我发疯。我必须以特定的方式握住手机 10 秒钟,以便它检测到它。我将它与 Red Laser、Zbar 等进行了比较,即使它有点歪斜,他们也可以在 1 秒内对其进行分析。我不确定这是因为我加载捕获会话的方式还是什么。我会很感激帮助。关于如何提高性能的任何建议?
这是我在 viewDidLoad 方法中加载扫描仪的方法:
和:
ios - AVCaptureSession 和背景音频 iOS 7
每当我启动一个以麦克风作为输入运行的 AVCaptureSession 时,它都会取消当前正在运行的任何背景音乐(例如 iPod 音乐)。如果我注释掉添加音频输入的行,则背景音频会继续。
有谁知道在继续播放背景音频的同时用麦克风录制视频剪辑的方法?当您尝试录制视频并且当前正在播放音乐时,也会出现错误。
A试图这样做:
但 'AudioSessionSetProperty' is deprecated: first deprecated in iOS 7.0
所以我试着这样做:
但最后还是不行。感谢帮助!
ios7 - 带驾照的 AVCaptureMetadataOutput
我正在尝试使用 iOS7 的 AVCaptureMetadataOutput 从驾驶执照背面的 pdf417 二维条码中捕获数据。我的程序可以识别其他 pdf417 条码,但它无法识别我的 FL DL 背面的那个。这是使用 AVCaptureMetadataOutput 无法完成的事情吗?有没有人成功让它工作?
iphone - 成功访问 AVCaptureDevice 模式 iOS7?
对于这方面的任何帮助,我将不胜感激:
对于我的增强现实应用程序(Vuforia SDK),我正在尝试使用 AVFoundation 框架来锁定 iPhone 5 相机的曝光、对焦和白平衡。以下构建 - 但使用时,相机不会打扰:
是的,因为我是 Objective-C 的新手,所以我从其他帖子中复制了所有这些内容。但是随着它的构建,因此不会抛出任何错误消息,我现在有点迷路了……</p>
这里的任何人都可以成为我的 iOS 仙女吗?:)