问题标签 [avcapturedevice]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 在 iPhone 上打开手电筒/闪光灯
我知道在 iPhone 4 上打开闪光灯并使其保持打开状态的唯一方法是打开摄像机。不过,我不太确定代码。这是我正在尝试的:
有人知道这是否可行还是我错过了什么?(我还没有要测试的 iPhone 4 - 只是尝试一些新的 API)。
谢谢
iphone - 制作一个按钮启动应用程序
所以我制作了一个自定义 UIButton 并将其添加到代码中并在 interfacebuiler 中建立了连接。我希望按钮用作开关,我该如何正确执行此操作?我是 iphone 开发的初学者,这是我在暑假期间参加的这门课的学校项目,以便为下学期抢占先机。
因此,如果有人可以帮助我理解如何以正确的方式做到这一点,也许可以在代码中写下注释。感谢所有的帮助。大卫·H。
这是我的代码:
这是.m文件
iphone - 在 AVCaptureSession 运行时显示相机流
根据http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html ,我能够使用 AVCaptureSession 从相机捕获视频帧。但是,似乎 AVCaptureScreen 从相机捕获帧而不在屏幕上显示相机流。我还想像在 UIImagePicker 中一样显示相机流,以便用户知道相机正在打开并看到相机指向的内容。任何帮助或指针将不胜感激!
iphone - AVCaptureSession 取消背景音频
每当我启动一个以麦克风作为输入运行的 AVCaptureSession 时,它都会取消当前正在运行的任何背景音乐(例如 iPod 音乐)。如果我注释掉添加音频输入的行,则背景音频会继续。
有谁知道在继续播放背景音频的同时用麦克风录制视频剪辑的方法?我环顾四周,似乎找不到任何关于这种行为的参考。
谢谢你的帮助!
iphone - 如何计算 AVCaptureDevice 的 focusPointOfInterest?
如何计算给定 AVCaptureDevice 的 focusPointOfInterest(0,0 和 1,1 之间的 CGPoint 值)?
我一直在关注最新 WWDC 的代码示例,但我真的不明白如何进行计算。此外,我的应用程序处于横向与纵向(如示例中)......所以除了不了解事物的计算方式之外,我不确定我需要进行哪些调整才能考虑横向.
任何帮助,将不胜感激。
谢谢-wg
iphone - 为什么 AVCaptureSession 输出错误的方向?
因此,我按照 Apple 的说明使用以下方法捕获视频会话:http AVCaptureSession
: //developer.apple.com/iphone/library/qa/qa2010/qa1702.html。我面临的一个问题是,即使相机/iPhone 设备的方向是垂直的(并且AVCaptureVideoPreviewLayer
显示垂直的相机流),输出图像似乎处于横向模式。我在示例代码中检查了 imageBuffer 的宽度和高度,imageFromSampleBuffer:
分别得到了 640px 和 480px。有谁知道为什么会这样?
谢谢!
iphone - AVCaptureDevice focusPointOfInterest 不会改变
我有一个带有此代码的 IBAction:
.h 文件:
.m 文件:
这与 CustomCameraOverlay 上的按钮有关。当我在移动相机的同时按下按钮时,没有任何变化。控制台日志始终相同:
为什么相机改变焦点时它没有改变?我做错了什么?我也尝试获取属性 isAdjustingFocus,但它也没有改变。
我想为这些属性添加Obserwer,但卡在这里,如果值不会改变,观察者将无法工作。
iphone - 快速点击按钮时 iPhone 手电筒应用程序崩溃
我的手电筒应用程序运行良好。出于某种原因,每次我非常快地点击手电筒按钮时,应用程序都会冻结并且不执行任何操作。当我调用 AVCaptureSession stopRunning 时,它似乎冻结了。这是我的切换手电筒方法的代码。我还希望最终调用此方法以实现频闪功能。
iphone - iPhone 4 AVFoundation:同时从前后摄像头捕捉
我想知道是否可以使用 AVFoundation 框架同时从两个摄像头捕获。具体来说,我的问题是前后 AVCaptureDevices 是否可以同时处于活动状态。
目前我知道一个 AVCaptureSession 实例只能支持一个输入(和输出)。我创建了两个 AVCaptureSession,将前置摄像头设备连接到一个,将后置摄像头设备连接到另一个,然后将会话的输出指向不同的 SampleBufferDelegate 函数。我看到的是一个委托功能在几帧内处于活动状态,然后另一个接管。如果正在使用另一个相机设备,似乎 AVFoundation 会以某种方式关闭相机设备。任何人都可以确认这一点或分享他们关于这个主题的经验吗?
提前致谢
ios - AVCaptureSession 输出样本缓冲区保存到 CoreData
我正在使用 AVCaptureSession 使用 AVCaptureVideoDataOutput 类中的 setSampleBufferDelegate 方法从相机捕获帧。委托方法如下所示。可以看到我转换为 UIImage 并放在 UIImageView 中。我想将每个 UIImage 保存到磁盘并将 URL 存储在新的 managedObject 中,但我不知道如何正确获取 managedObjectContext,因为每次调用都会使用串行调度队列生成一个新线程。任何人都可以提出一个使用 CoreData 和调度队列的解决方案,以便我可以构建存储在磁盘上并对应于 managedObject 的图像集合。