问题标签 [avcapture]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iPhone 视频捕捉(最佳方法)
我对 iPhone iOS 的新 API 感到好奇:AVCapture...这是否包括获取相机预览屏幕截图的记录方法?该文档对我来说似乎有点令人困惑,并且由于它现在不在 NDA 范围内,我想我会在这里发布我的问题。非常感谢,布雷特
iphone - AVCapture appendSampleBuffer
我对这个要发疯了——到处都看了,尝试了所有我能想到的东西。
我正在制作一个使用 AVFoundation 的 iPhone 应用程序 - 特别是 AVCapture 来使用 iPhone 相机捕获视频。
我需要有一个覆盖在录制中包含的视频源上的自定义图像。
到目前为止,我已经设置了 AVCapture 会话,可以显示提要、访问框架、将其保存为 UIImage 并将覆盖图像添加到其上。然后将这个新的 UIImage 转换为 CVPixelBufferRef。annnd 仔细检查 bufferRef 是否正常工作,我将它转换回 UIImage 并且它仍然可以很好地显示图像。
当我尝试将 CVPixelBufferRef 转换为 CMSampleBufferRef 以附加到 AVCaptureSessionsassetWriterInput 时,问题就开始了。当我尝试创建 CMSampleBufferRef 时,它总是返回 NULL。
这是 -(void)captureOutput 函数
我经常听到的另一个解决方案是使用 AVAssetWriterInputPixelBufferAdaptor,它消除了进行混乱的 CMSampleBufferRef 包装的需要。但是,我已经搜索了堆栈和苹果开发人员论坛和文档,但找不到关于如何设置或如何使用它的清晰描述或示例。如果有人有一个可行的例子,请您给我看或帮我解决上述问题 - 一直在不停地研究这个问题一周,我束手无策。
如果您需要任何其他信息,请告诉我
提前致谢,
迈克尔
iphone - iPhone AVCapture:访问 CVPixelBuffer 很慢
我一直在使用 CoreGraphics 在像素缓冲区周围创建位图上下文并使用 提取图像CGBitmapContextCreateImage
,然后使用CGContextDrawImage
在另一个(灰度)缓冲区中绘制该图像。
分析表明这CGContextDrawImage
需要很多时间,所以我想我会通过CVPixelBuffer
直接访问原始文件来避免它。但事实证明,这要慢得多!
我猜这个缓冲区位于一些特殊的内存区域,由于某种原因访问速度很慢。
那么,将这些像素放入可以快速处理它们的地方的最快方法是什么?
iphone - ios4中相机活动的问题
嗨,到目前为止,我已经在 IOS3 中使用 UIImagePickerController 进行相机活动。但在 IOS4 中,ImagePickerController 无法正常工作。当我尝试捕获图像时,它要么显示白色图像,要么应用程序经常崩溃。
所以我开始使用 AVCapture 设备来进行我的相机活动。在这方面,我也开始面临新的问题。当我以横向拍摄图像时,图像预览将图像显示为纵向,反之亦然。有时它会显示内存级别警告。
UIImagePickerController 和 AVCapture 都存在问题。我想知道如何解决这些问题。还有其他方法可以在 IOS4 中处理相机活动。
请朋友们帮帮我......
iphone - Why rotate Image in OpenCV without rotation code?
I am taking photo using AVCaptureStillImageOutput, AVCaptureSession, AVCaptureVideoPreviewLayer and display it in UIImageView. Its work properly.
But, After display image in UIImage. I am detecting faces using OpenCV from that displayed image.
It detect, but it returns the rotated image. I am not use any code for rotate the image. Its automatically rotate the image.
I want to stop rotating.
Here is my code.
Here is the Screen shots
1) Image for before calling face detection method
2) Image for after calling face detection method
iphone - 如何获得 AVCapture 时间码?
我正在开发一个使用 AVFoundation 框架的视频捕获应用程序,基于 Apple 的AVCam示例。我想实现设置最大视频长度的功能,并在达到此限制时自动停止捕获(类似于UIImagePickerController.videoMaximumDuration)。
我假设我需要在捕获记录时注册一些通知,并检查此回调中的时间戳。我查看了 AV Foundation Programming Guide 并进行了一些谷歌搜索,但我找不到一种方法来检索 AVCaptureSession、AVCaptureMovieFileOutput 或 AVCaptureSomethingElse 的经过时间。
任何见解都会有所帮助。谢谢!
iphone - AVCaptureMovieFileOutput -- 在写入时修剪文件
我正在使用AVCaptureMovieFileOutput
. 但是,我不想在整个录制时间内保留捕获的视频,而只想保留最后 2 分钟的视频。本质上,我想创建一个视频的尾随缓冲区。
我试图通过设置movieFragmentInterval
等于 15 秒来实现这一点。由于这 15 秒的缓冲,MOV 文件的前 15 秒将使用以下代码修剪掉:
但是,每次trimFlashbackBuffer
调用我都会收到以下错误:
这是因为该文件已被写入AVCaptureMovieFileOutput
吗?
如果这种方法不起作用,如何实现无缝尾随视频缓冲区的效果?
谢谢!
iphone - 在相机屏幕周围创建 100 X 100 帧
我正在开发基于相机的应用程序。它与直方图有关。当我打开应用程序时,它应该启动相机,它应该在屏幕中央制作 100 x 100 的帧。相机开始在屏幕上显示图像,但我不知道如何在屏幕中心周围制作框架。
请指导我。
ios - 如何在横向应用程序上将视频录制到屏幕上?
这让我很头疼。
我正在使用这个示例项目:https ://github.com/jj0b/AROverlayExample
这完美地工作。唯一的问题是它是一个肖像应用程序。因此,当我将设备旋转到横向时,视频仍会按需要显示,但我的所有标签和 UI 现在都是横向的。
为了解决这个问题,我只在 info.plist 中设置风景
问题是这样的:
这是我的代码:
我无法弄清楚为什么视频会横向显示,尽管专门将图层框架设置为横向 CGRectMake(0, 0, 480, 300) ,但它却以相反的方式出现。
ios - iOS 5 - AVCaptureDevice 设置焦点和焦点模式冻结实时相机图片
自 iOS 4 以来,我使用以下方法设置焦点:
在 iOS 4 设备上,这没有任何问题。但在 iOS 5 上,实时摄像头画面冻结,几秒钟后完全变黑。没有抛出异常或错误。
如果我注释掉 setFocusPointOfInterest 或 setFocusMode,则不会发生错误。因此,它们两者的结合将导致这种行为。