问题标签 [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 相机不专注于 iPhone 4,运行 iOS 7.1
iOS 从 7.0.6 升级到 7.1.0 后,我们遇到了麻烦。我在运行 iOS 7.1 的 iPhone 4s、5、5c 和 5s 上都没有看到这个问题。我正在发布相机初始化代码:
任何帮助将不胜感激...
ios - 从像素密度(ppi)>300ppi 的相机捕获 iOS 图像
我正在开发一个 iOS 应用程序,它使用AVCaptureDevice从 iPhone 相机获取图像。
捕获的图像似乎具有 72ppi 的像素密度 (ppi)。
1.我需要将这些图像发送到后端云服务器进行进一步处理,该服务器期望图像的最小像素密度为 300ppi。
2.我还看到,从 iPhone 5 原生相机拍摄的图像也有 72 ppi 的像素密度。
3.我需要知道基础中是否有任何设置AVCapture
来设置所拍摄图像的像素密度,或者是否有办法将拍摄图像的像素密度从72增加到300 ppi。
任何帮助,将不胜感激。
ios - 视频捕获:ios 6 中丢弃的帧
我正在使用 AVFoundation 框架使用 AVCaptureSession 对视频进行编码。
视频和音频在 ios7 (iPAD) 中成功录制并保存到相机胶卷中,但在我的 ios 6 (iPOD TOUCH) 中没有
以下代码将示例缓冲区添加到音频和视频 AVAssetWriterInput。
我得出的结论是,在 iPOD 即 iOS 6 中捕获的大多数帧都被使用以下代码丢弃。
请帮助我,我被严重困在这里,无法继续前进。
建议我一些解决方案,或者至少建议您对这些情况的宝贵想法和假设。
提前谢谢你。
ios - 实现一个频闪功能
所以我正在尝试创建一个 LED 频闪灯,并且我设法为灯制作了一个开/关开关。这是我的代码:
我想知道是否有人可以帮助我完成这部分。
ios - 如何在 iPhone 中捕获仅相机可见的视图
我创建了一个视图控制器,50% 的视图是相机视图,其他 50% 是按钮等
。我面临的问题是,当我捕捉图像时,捕捉到了更大的图像,我只想捕捉我能看到的内容50% 的视图。
所以它看起来像这样:
这是我在视图中看到的:
这是我在捕获后得到的图像:
这背后的代码是:
这是我尝试捕获图像时的事件:
为什么我要获得整个相机视图如何缩小相机捕获的大小,以便我只能捕获在相机视图中看到的内容?
ios - AVCaptureDevice 无法捕获后置摄像头
我正在尝试使用 iphone 上的后置摄像头AVCaptureDevice
。我都试过了AVCaptureDevicePositionBack
,AVCaptureDevicePositionFront
但无论如何它仍然使用 FrontCamera。
这是我的代码:
ios - 是否可以创建一个继承自 AVCaptureDevice 的类?
我正在尝试像这样创建一个从 AVCaptureDevice 继承的类
在 MyClass.h 文件中
但是如何在 init 方法中将 AVCaptureDevice 实例分配给“self”?
这是我现在的方法(不起作用......)
在 MyClass.m 文件中
我得到了NSInvalidArgumentException
,原因:'-[AVCaptureFigVideoDevice test]:
无法识别的选择器发送到实例",这是有道理的,因为 test 不是 AVCaptureDevice 中的方法。
我之前做的另一种方法是在 MyClass 类中包含 AVCaptureDevice,它有效。
但我仍然想知道我是否错过了一些实现这一想法的好方法。
谢谢你。
ios - iOS:未调用 captureOutput:didOutputSampleBuffer:fromConnection
我想从 AVCaptureSession 的实时提要中提取帧,并且我使用 Apple 的 AVCam 作为测试用例。这是 AVCam 的链接:
https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html
我发现那captureOutput:didOutputSampleBuffer:fromConnection
没有被调用,我想知道为什么或我做错了什么。
这是我所做的:
(1)我做AVCamViewController
一个代表
(2) 我创建了一个AVCaptureVideoDataOutput
对象并将其添加到会话中
(3) 我添加了委托方法并通过记录一个随机字符串进行测试
测试应用程序有效,但未调用 captureOutput:didOutputSampleBuffer:fromConnection。
(4) 我在 SO 上读到,AVCaptureSession *session = [[AVCaptureSession alloc] init];
viewDidLoad 中的会话变量是未调用委托的可能原因,我将其设为 AVCamViewController 类的实例变量,但未调用它。
这是我正在测试的 viewDidLoad 方法(取自 AVCam),我在方法末尾添加了 AVCaptureDataOutput:
有人可以告诉我为什么以及如何解决它的建议吗?
ios - videoZoomFactor 不适用于 AVCaptureSession
我正在努力解决的缩放问题仍然存在。我尝试按照link1和link2的代码使用 AVCaptureSession 获取图像。
一切都很好,除了当我尝试实现相机变焦时,事情并没有按我的意愿执行。
我尝试在 AVCaptureDevice 对象上使用 videoZoomFactor 方法,如下面的代码所示。
你有什么建议为什么 videoZoomFactor 没有任何效果?
您将如何按预期使用 AVCaptureSession 为静止图像采集创建缩放?
ios - UIImage 部分图像的焦点
我正在尝试扩展我对 AVFoundation 框架的理解。
我想在焦点对准的图像区域周围添加一个贝塞尔路径(不一定是高分辨率路径)。
那么,给定一个 UIImage,是否有可能知道 UIImage 的哪些点是焦点,哪些点不是?
(不确定是否有任何 GPUImage“检测过滤器”对实现我正在尝试的内容有用)。