问题标签 [avcapture]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
1845 浏览

iphone - iPhone 视频捕捉(最佳方法)

我对 iPhone iOS 的新 API 感到好奇:AVCapture...这是否包括获取相机预览屏幕截图的记录方法?该文档对我来说似乎有点令人困惑,并且由于它现在不在 NDA 范围内,我想我会在这里发布我的问题。非常感谢,布雷特

0 投票
2 回答
9037 浏览

iphone - AVCapture appendSampleBuffer

我对这个要发疯了——到处都看了,尝试了所有我能想到的东西。

我正在制作一个使用 AVFoundation 的 iPhone 应用程序 - 特别是 AVCapture 来使用 iPhone 相机捕获视频。

我需要有一个覆盖在录制中包含的视频源上的自定义图像。

到目前为止,我已经设置了 AVCapture 会话,可以显示提要、访问框架、将其保存为 UIImage 并将覆盖图像添加到其上。然后将这个新的 UIImage 转换为 CVPixelBufferRef。annnd 仔细检查 bufferRef 是否正常工作,我将它转换回 UIImage 并且它仍然可以很好地显示图像。

当我尝试将 CVPixelBufferRef 转换为 CMSampleBufferRef 以附加到 AVCaptureSessionsassetWriterInput 时,问题就开始了。当我尝试创建 CMSampleBufferRef 时,它总是返回 NULL。

这是 -(void)captureOutput 函数

我经常听到的另一个解决方案是使用 AVAssetWriterInputPixelBufferAdaptor,它消除了进行混乱的 CMSampleBufferRef 包装的需要。但是,我已经搜索了堆栈和苹果开发人员论坛和文档,但找不到关于如何设置或如何使用它的清晰描述或示例。如果有人有一个可行的例子,请您给我看或帮我解决上述问题 - 一直在不停地研究这个问题一周,我束手无策。

如果您需要任何其他信息,请告诉我

提前致谢,

迈克尔

0 投票
0 回答
628 浏览

iphone - iPhone AVCapture:访问 CVPixelBuffer 很慢

我一直在使用 CoreGraphics 在像素缓冲区周围创建位图上下文并使用 提取图像CGBitmapContextCreateImage,然后使用CGContextDrawImage在另一个(灰度)缓冲区中绘制该图像。
分析表明这CGContextDrawImage需要很多时间,所以我想我会通过CVPixelBuffer直接访问原始文件来避免它。但事实证明,这要慢得多!

我猜这个缓冲区位于一些特殊的内存区域,由于某种原因访问速度很慢。

那么,将这些像素放入可以快速处理它们的地方的最快方法是什么?

0 投票
1 回答
271 浏览

iphone - ios4中相机活动的问题

嗨,到目前为止,我已经在 IOS3 中使用 UIImagePickerController 进行相机活动。但在 IOS4 中,ImagePickerController 无法正常工作。当我尝试捕获图像时,它要么显示白色图像,要么应用程序经常崩溃。

所以我开始使用 AVCapture 设备来进行我的相机活动。在这方面,我也开始面临新的问题。当我以横向拍摄图像时,图像预览将图像显示为纵向,反之亦然。有时它会显示内存级别警告。

UIImagePickerController 和 AVCapture 都存在问题。我想知道如何解决这些问题。还有其他方法可以在 IOS4 中处理相机活动。

请朋友们帮帮我......

0 投票
1 回答
1952 浏览

iphone - Why rotate Image in OpenCV without rotation code?

I am taking photo using AVCaptureStillImageOutput, AVCaptureSession, AVCaptureVideoPreviewLayer and display it in UIImageView. Its work properly.

But, After display image in UIImage. I am detecting faces using OpenCV from that displayed image.

It detect, but it returns the rotated image. I am not use any code for rotate the image. Its automatically rotate the image.

I want to stop rotating.

Here is my code.

Here is the Screen shots

1) Image for before calling face detection method Image before face detection method called

2) Image for after calling face detection method Image after face detection method called

0 投票
1 回答
1053 浏览

iphone - 如何获得 AVCapture 时间码?

我正在开发一个使用 AVFoundation 框架的视频捕获应用程序,基于 Apple 的AVCam示例。我想实现设置最大视频长度的功能,并在达到此限制时自动停止捕获(类似于UIImagePickerController.videoMaximumDuration)。

我假设我需要在捕获记录时注册一些通知,并检查此回调中的时间戳。我查看了 AV Foundation Programming Guide 并进行了一些谷歌搜索,但我找不到一种方法来检索 AVCaptureSession、AVCaptureMovieFileOutput 或 AVCaptureSomethingElse 的经过时间。

任何见解都会有所帮助。谢谢!

0 投票
2 回答
4358 浏览

iphone - AVCaptureMovieFileOutput -- 在写入时修剪文件

我正在使用AVCaptureMovieFileOutput. 但是,我不想在整个录制时间内保留捕获的视频,而只想保留最后 2 分钟的视频。本质上,我想创建一个视频的尾随缓冲区。

我试图通过设置movieFragmentInterval等于 15 秒来实现这一点。由于这 15 秒的缓冲,MOV 文件的前 15 秒将使用以下代码修剪掉:

但是,每次trimFlashbackBuffer调用我都会收到以下错误:

这是因为该文件已被写入AVCaptureMovieFileOutput吗?

如果这种方法不起作用,如何实现无缝尾随视频缓冲区的效果?

谢谢!

0 投票
1 回答
166 浏览

iphone - 在相机屏幕周围创建 100 X 100 帧

我正在开发基于相机的应用程序。它与直方图有关。当我打开应用程序时,它应该启动相机,它应该在屏幕中央制作 100 x 100 的帧。相机开始在屏幕上显示图像,但我不知道如何在屏幕中心周围制作框架。

请指导我。

0 投票
1 回答
2921 浏览

ios - 如何在横向应用程序上将视频录制到屏幕上?

这让我很头疼。

我正在使用这个示例项目:https ://github.com/jj0b/AROverlayExample

这完美地工作。唯一的问题是它是一个肖像应用程序。因此,当我将设备旋转到横向时,视频仍会按需要显示,但我的所有标签和 UI 现在都是横向的。

在此处输入图像描述

为了解决这个问题,我只在 info.plist 中设置风景

问题是这样的:

在此处输入图像描述

这是我的代码:

我无法弄清楚为什么视频会横向显示,尽管专门将图层框架设置为横向 CGRectMake(0, 0, 480, 300) ,但它却以相反的方式出现。

0 投票
2 回答
13148 浏览

ios - iOS 5 - AVCaptureDevice 设置焦点和焦点模式冻结实时相机图片

自 iOS 4 以来,我使用以下方法设置焦点:

在 iOS 4 设备上,这没有任何问题。但在 iOS 5 上,实时摄像头画面冻结,几秒钟后完全变黑。没有抛出异常或错误。

如果我注释掉 setFocusPointOfInterest 或 setFocusMode,则不会发生错误。因此,它们两者的结合将导致这种行为。