问题标签 [avcapturesession]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 为什么 AVCaptureVideoOrientation 横向模式会导致静止图像倒置?
我正在使用 AVFoundation 类在我的应用程序中实现自定义相机。我只捕捉静止图像,而不是视频。我一切正常,但被某些事情难住了。我会在捕获静止图像时考虑设备方向,并适当地设置视频连接的 videoOrientation。一段代码:
请注意我在景观案例中的评论。我必须反转方向映射,否则生成的图像是颠倒的。我使用以下代码捕获并保存图像:
没有其他图像处理或操作。
我的应用程序使用上面的代码。我只是想了解为什么横向方向的方向常数必须反转。谢谢!
ios - 如何在横向应用程序上将视频录制到屏幕上?
这让我很头疼。
我正在使用这个示例项目:https ://github.com/jj0b/AROverlayExample
这完美地工作。唯一的问题是它是一个肖像应用程序。因此,当我将设备旋转到横向时,视频仍会按需要显示,但我的所有标签和 UI 现在都是横向的。
为了解决这个问题,我只在 info.plist 中设置风景
问题是这样的:
这是我的代码:
我无法弄清楚为什么视频会横向显示,尽管专门将图层框架设置为横向 CGRectMake(0, 0, 480, 300) ,但它却以相反的方式出现。
objective-c - Mac OS X 10.7 AVCaptureScreenInput setCropRect 中的内存泄漏:函数
我正在为 Lion 开发一个屏幕录制应用程序,它主要使用 Lion 的新 AVCaptureScreenInput 类来获取屏幕上指定矩形的屏幕视频流。一切似乎都很好,但是:
根据活动监视器,我每调用一次setCropRect:
,内存使用量就会增加 10-20Mb。由于我提供了一个可以在录制过程中更改矩形大小的功能,因此随着用户对矩形进行大量更改,内存使用量可能会增加到 1-2Gb,这是一场灾难:(
我严重怀疑这是否是 Apple SDK 中的错误,因此 Apple 的示例代码 AVScreenShack 示例也存在此问题。
我的代码是这样的:
谁能告诉我,如果它是 SDK 中的错误,或者我以错误的方式使用它,还是应该使用另一个类来执行此操作?谢谢
ios - 无法使用 AVCaptureSession 获得任何视频预览
我AVCaptureSession
这样设置:
然后我在视图中添加了一个预览层:
但我不会得到任何预览。
我在 IOS 5 上使用 iPod Touch 第 4 代。
谢谢。
video - 为什么我可以在 AVCaptureSession 而不是 AVAssetReader 上处理灰度效果?
我正在开发一个 iPhone 应用程序。我想对库中的视频应用一些过滤器。经过研究,我从这篇文章http://www.sunsetlakesoftware.com/2010/10/22/gpu-accelerated-video-processing-mac-and-ios和他的 ColorTracking 源开始。从这段代码中,我可以使用 AVCaptureSession 实时应用灰度过滤器。正确的。但我想对图书馆的视频做同样的事情。所以我使用 AVAssetReader 来读取源视频。与 AVCaptureSession 一样,我可以获得一个 CVImageBufferRef。它具有与 AVCaptureSession 相同的宽度、高度和数据大小,但我的 openGL 视图始终为黑色。
我捕获 Frame 的来源:
这是处理框架的代码:
对于 OpenGL 视图中的绘图帧:
我不添加代码,但如果需要帮助我,我可以......你有办法帮助我吗?
谢谢!
iphone - 如何在 iOS 5 的视频会话中检测人脸
在我的应用程序中,我使用了一个可以拍照的视频会话。但是我想在这个视频会话中进行人脸检测。我查看了 Apple 的示例“SquareCam”,这正是我正在寻找的。然而,在我的项目中实现他们的代码让我发疯了。
除了我的视频会话之外,我还成功地识别了我在项目中导入的 UIImage 中的面孔。我使用@Abhinav Jha 的示例(如何在 iOS 5 人脸检测 API 中正确实例化 CIDetector 类对象)做到了这一点。
希望有人可以通过结合这两个例子为我指明正确的方向!
ios - 捕捉 iPhone 游戏音频
我想捕捉来自我的 iPhone 游戏的音频(音乐 + 音效)。AVCaptureSession
似乎只有麦克风作为音频源。我想捕获音频,将其放入CMSampleBufferRef
s 并将这些附加到AVAssetWriterInput
.
我目前正在研究音频队列。还有其他想法吗?
iphone - AVCaptureVideoDataOutput 和设置 kCVPixelBufferWidthKey & kCVPixelBufferHeightKey
AVCaptureVideoDataOutput
我正在尝试通过设置kCVPixelBufferWidthKey
&捕获特定大小的帧kCVPixelBufferHeightKey
。
问题是缓冲区的宽度和高度永远不会改变,它们总是回来852x640
这是我的代码:
编辑:来自 iOS AVCaptureOutput.h:目前,唯一支持的键是 kCVPixelBufferPixelFormatTypeKey。
有人知道设置输出缓冲区宽度/高度的工作方法吗?
ios - 具有多个输出的 AVCaptureSession?
我目前正在开发一个 iOS 应用程序,该应用程序将 CoreImage 应用于相机供稿以拍摄照片和视频,但我遇到了一些障碍。
到目前为止,我一直在使用AVCaptureVideoDataOutput来获取样本缓冲区并使用 CoreImage 操作它们,然后显示一个简单的预览,以及使用它来捕获照片并保存它们。
当我尝试实现视频录制时,通过将 SampleBuffers 写入视频,因为我从AVCaptureVideoDataOutput收到它们,它的帧速率非常慢(可能是因为正在进行的其他图像相关处理)。
所以我想知道,是否有可能同时在同一个 AVCaptureSession 上进行 AVCaptureVideoDataOutput 和 AVCaptureMoveFileOutput ?
我试了一下,发现当我添加额外的输出时,我的 AVCaptureVideoDataOutput 停止接收信息。
如果我可以让它工作,我希望这意味着我可以简单地使用第二个输出以高帧速率录制视频,并在用户停止录制后对视频进行后期处理。
任何帮助将不胜感激。
iphone - iPhone 相机对焦
我使用下面的代码来聚焦 iPhone 相机。但它不起作用。我从 Apple 的 AVCam 示例代码中获取此代码。我做错什么了吗?有什么方法可以检测 iPhone 是否对焦?