问题标签 [avcapture]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
394 浏览

ios - 我可以从相机中获取任何有用的信息吗?

我正在使用以下委托方法AVCaptureVideoDataOutputSampleBufferDelegate以自定义方式显示来自 iPhone 相机的视频。UIView

我希望能够从图像中提取一些有用的信息,例如曝光、颜色、阈值。

访问此类信息的最佳方式是什么?

0 投票
1 回答
880 浏览

ios - iOS:使用 OpenGL 绘制视频

我正在尝试在相机的视频上绘制一些 OpenGL 图形。我用绘制几个带纹理的三角形的代码修改了 Apple 的GLCameraRipple示例。这段代码在我的另一个 OpenGL 项目中运行良好(但没有 GLKit)。不幸的是,它只能在这里工作:当我的应用程序启动时,我看到屏幕上充满了 ClearColor,上面有我的带纹理的三角形(但没有视频),一会儿屏幕变成黑色,我什么也看不到。你能解释一下是什么问题吗?

0 投票
1 回答
9005 浏览

objective-c - 运行多个 AVCaptureSession 或添加多个输入

我想在两个相邻的 UIView 中显示 iPad2 的前置和后置摄像头的流。要流式传输一台设备的图像,我使用以下代码

这适用于任一相机。为了并行显示流,我尝试创建另一个会话,但是一旦建立第二个会话,第一个会话就会冻结。

然后我尝试将两个 AVCaptureDeviceInput 添加到会话中,但目前似乎最多支持一个输入。

任何有用的想法如何从两个摄像机流式传输?

0 投票
0 回答
109 浏览

objective-c - 使用 AVCaptureSession 返回的异常值

我正在使用 AVCapture Session 实时检测一些图像,并通过我的应用程序中的 XML 数据和 SURF 算法(SURF 代码可用开源)匹配图像数据。

现在我的 XML 由 Img Data(表示图像特征的浮点数)和 imgid(从 1 到 9 的整数值)组成。

逻辑是,每当我将相机对准图像时,它应该检测 rgb 值并将其发送到 SURF 算法,其中图像的 rgb 值已经使用 XML 的特征点数据进行了操作。匹配特征并返回该特定图像的相应 img id(介于 1 到 9 之间)。使用该图像 ID,将返回匹配 ID。如果匹配 id 是任何正值,则图像被称为匹配,如果为零则不匹配。

现在我得到像这样的图像ID AVCaptureConnection: 0x59f3da0

avcapture 会话代码与 Apple 技术问答中使用的代码相同。

0 投票
1 回答
1583 浏览

iphone - 无法捕获 AVCaptureVideoPreviewLayer

在我的应用程序中,我正在使用以下代码打开一个视频预览层:

当我尝试使用此方法捕获屏幕时:

prevLayer 没有被捕获,我错过了什么吗?

0 投票
1 回答
3965 浏览

iphone - AVCapture 和 iPhone 的相机默认设置有什么区别

我的应用程序使用 AVCapture 捕获图像,这是我的主管的理想。但是我在互联网上进行了研究,无法获得有关 AVCapture 与 iPhone 或 iPop 的默认相机(标签焦点或相机质量......)之间差异的任何信息。请告诉我AVFoundation框架的进步...

0 投票
1 回答
911 浏览

iphone - 如何在拍摄照片的那一刻暂停视频?

AVFoundation正在UIView通过AVCaptureVideoPreviewOverlay. 然后我使用captureStillImageAsynchronouslyFromConnection从带有预设AVStillImageOutput的视频中捕获静止图像 。-:AVCaptureSessionPresetPhoto

我正在使用前面提到的 captureStillImageAsynchronouslyFromConnection 完成块中AVCaptureSession-stopRunning来冻结视频。-但是,为时已晚,并且在拍摄静止图像时视频继续运行,因此冻结在一两秒后。当我显示图像时,会有一个跳跃。

如何在拍摄照片的那一刻冻结视频?

0 投票
1 回答
1096 浏览

ios - IOS,AVCam,如何预览拍摄的图像?

使用 AVCam 示例,我看不到如何访问 AVCamViewController.m 文件中的图像。我想预览捕获的图像,但我看不到如何在方法中访问此图像:- (IBAction)captureStillImage:(id)sender在行之后:[[self captureManager] captureStillImage];

我想像这样以编程方式添加预览:

我试图在这里寻求帮助,但一直未能。这里有人有一些提示吗?

0 投票
2 回答
3922 浏览

ios - 为什么当样本缓冲区不为空时 jpegStillImageNSDataRepresentation 会抛出异常?

在 iOS 中,我使用代码从 AVCaptureStillImageOutput 捕获,因此:

[_captureStillOutput captureStillImageAsynchronouslyFromConnection: _captureConnection completionHandler: asyncCaptureCompletionHandler];

为了简化我的代码,我的 asyncCaptureCompletionHandler 块如下所示:

我已经通过了我的所有代码并与堆栈溢出交叉引用,并且没有发现任何建议为什么会在没有正确 JPEG 的情况下捕获有效的样本缓冲区。

调试器中有补充信息: * 由于未捕获的异常“NSInvalidArgumentException”而终止应用程序,原因:“* +[AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:] - 不是 jpeg 样本缓冲区。”

在谷歌和堆栈溢出中搜索“不是 jpeg 样本缓冲区”产生的结果为零。我被困住了。呸。

0 投票
0 回答
1399 浏览

ios - 如何更有效地实现 GPUImageWhiteBalanceFilter 和 uiElement 混合?

我正在开发一个使用 GPUImage 框架的应用程序。我想使用 GPUImageWhiteBalanceFilter 来调整白平衡并使用 uiElement blend 记录一些水印,它可以工作,但是在 iphone 4s 中捕获 1080p 视频时帧速率很差。代码如下,任何人都可以提供帮助。