问题标签 [avcapturesession]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
3 回答
14197 浏览

iphone - 为什么 AVCaptureVideoOrientation 横向模式会导致静止图像倒置?

我正在使用 AVFoundation 类在我的应用程序中实现自定义相机。我只捕捉静止图像,而不是视频。我一切正常,但被某些事情难住了。我会在捕获静止图像时考虑设备方向,并适当地设置视频连接的 videoOrientation。一段代码:

请注意我在景观案例中的评论。我必须反转方向映射,否则生成的图像是颠倒的。我使用以下代码捕获并保存图像:

没有其他图像处理或操作。

我的应用程序使用上面的代码。我只是想了解为什么横向方向的方向常数必须反转。谢谢!

0 投票
1 回答
2921 浏览

ios - 如何在横向应用程序上将视频录制到屏幕上?

这让我很头疼。

我正在使用这个示例项目:https ://github.com/jj0b/AROverlayExample

这完美地工作。唯一的问题是它是一个肖像应用程序。因此,当我将设备旋转到横向时,视频仍会按需要显示,但我的所有标签和 UI 现在都是横向的。

在此处输入图像描述

为了解决这个问题,我只在 info.plist 中设置风景

问题是这样的:

在此处输入图像描述

这是我的代码:

我无法弄清楚为什么视频会横向显示,尽管专门将图层框架设置为横向 CGRectMake(0, 0, 480, 300) ,但它却以相反的方式出现。

0 投票
1 回答
497 浏览

objective-c - Mac OS X 10.7 AVCaptureScreenInput setCropRect 中的内存泄漏:函数

我正在为 Lion 开发一个屏幕录制应用程序,它主要使用 Lion 的新 AVCaptureScreenInput 类来获取屏幕上指定矩形的屏幕视频流。一切似乎都很好,但是:

根据活动监视器,我调用一次setCropRect:,内存使用量就会增加 10-20Mb。由于我提供了一个可以在录制过程中更改矩形大小的功能,因此随着用户对矩形进行大量更改,内存使用量可能会增加到 1-2Gb,这是一场灾难:(

我严重怀疑这是否是 Apple SDK 中的错误,因此 Apple 的示例代码 AVScreenShack 示例也存在此问题。

我的代码是这样的:

谁能告诉我,如果它是 SDK 中的错误,或者我以错误的方式使用它,还是应该使用另一个类来执行此操作?谢谢

0 投票
1 回答
1552 浏览

ios - 无法使用 AVCaptureSession 获得任何视频预览

AVCaptureSession这样设置:

然后我在视图中添加了一个预览层:

但我不会得到任何预览。

我在 IOS 5 上使用 iPod Touch 第 4 代。

谢谢。

0 投票
2 回答
1548 浏览

video - 为什么我可以在 AVCaptureSession 而不是 AVAssetReader 上处理灰度效果?

我正在开发一个 iPhone 应用程序。我想对库中的视频应用一些过滤器。经过研究,我从这篇文章http://www.sunsetlakesoftware.com/2010/10/22/gpu-accelerated-video-processing-mac-and-ios和他的 ColorTracking 源开始。从这段代码中,我可以使用 AVCaptureSession 实时应用灰度过滤器。正确的。但我想对图书馆的视频做同样的事情。所以我使用 AVAssetReader 来读取源视频。与 AVCaptureSession 一样,我可以获得一个 CVImageBufferRef。它具有与 AVCaptureSession 相同的宽度、高度和数据大小,但我的 openGL 视图始终为黑色。

我捕获 Frame 的来源:

这是处理框架的代码:

对于 OpenGL 视图中的绘图帧:

我不添加代码,但如果需要帮助我,我可以......你有办法帮助我吗?

谢谢!

0 投票
0 回答
4242 浏览

iphone - 如何在 iOS 5 的视频会话中检测人脸

在我的应用程序中,我使用了一个可以拍照的视频会话。但是我想在这个视频会话中进行人脸检测。我查看了 Apple 的示例“SquareCam”,这正是我正在寻找的。然而,在我的项目中实现他们的代码让我发疯了。

除了我的视频会话之外,我还成功地识别了我在项目中导入的 UIImage 中的面孔。我使用@Abhinav Jha 的示例(如何在 iOS 5 人脸检测 API 中正确实例化 CIDetector 类对象)做到了这一点。

希望有人可以通过结合这两个例子为我指明正确的方向!

0 投票
1 回答
691 浏览

ios - 捕捉 iPhone 游戏音频

我想捕捉来自我的 iPhone 游戏的音频(音乐 + 音效)。AVCaptureSession似乎只有麦克风作为音频源。我想捕获音频,将其放入CMSampleBufferRefs 并将这些附加到AVAssetWriterInput.

我目前正在研究音频队列。还有其他想法吗?

0 投票
1 回答
5466 浏览

iphone - AVCaptureVideoDataOutput 和设置 kCVPixelBufferWidthKey & kCVPixelBufferHeightKey

AVCaptureVideoDataOutput我正在尝试通过设置kCVPixelBufferWidthKey&捕获特定大小的帧kCVPixelBufferHeightKey
问题是缓冲区的宽度和高度永远不会改变,它们总是回来852x640

这是我的代码:

编辑:来自 iOS AVCaptureOutput.h:目前,唯一支持的键是 kCVPixelBufferPixelFormatTypeKey。

有人知道设置输出缓冲区宽度/高度的工作方法吗?

0 投票
1 回答
6041 浏览

ios - 具有多个输出的 AVCaptureSession?

我目前正在开发一个 iOS 应用程序,该应用程序将 CoreImage 应用于相机供稿以拍摄照片和视频,但我遇到了一些障碍。

到目前为止,我一直在使用AVCaptureVideoDataOutput来获取样本缓冲区并使用 CoreImage 操作它们,然后显示一个简单的预览,以及使用它来捕获照片并保存它们。

当我尝试实现视频录制时,通过将 SampleBuffers 写入视频,因为我从AVCaptureVideoDataOutput收到它们,它的帧速率非常慢(可能是因为正在进行的其他图像相关处理)。

所以我想知道,是否有可能同时在同一个 AVCaptureSession 上进行 AVCaptureVideoDataOutput 和 AVCaptureMoveFileOutput

我试了一下,发现当我添加额外的输出时,我的 AVCaptureVideoDataOutput 停止接收信息。

如果我可以让它工作,我希望这意味着我可以简单地使用第二个输出以高帧速率录制视频,并在用户停止录制后对视频进行后期处理。

任何帮助将不胜感激。

0 投票
1 回答
3834 浏览

iphone - iPhone 相机对焦

我使用下面的代码来聚焦 iPhone 相机。但它不起作用。我从 Apple 的 AVCam 示例代码中获取此代码。我做错什么了吗?有什么方法可以检测 iPhone 是否对焦?