问题标签 [avcapturesession]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
217 浏览

iphone - 当相机在 iPhone 中运行时使用 UIAlertView

当我的相机使用 OpenCV 检测到人脸时,我试图触发 AlertView。我设法进行面部检测并且可以成功输出 NSLog。但是当我试图触发警报视图时

我可以看到警报视图在屏幕变暗时被触发,但我永远看不到警报视图出现...

感谢您的帮助!

0 投票
1 回答
1660 浏览

iphone - 在视频捕获模式下使用时如何从 iPhone 相机获取原始图像数据(每个像素的 RGB 值)?

我必须制作一个可以实时处理视频数据的 iPhone 项目。此应用程序必须能够重新调整视频帧中对象的颜色。我在iOS中找到了与视频处理相关的信息后,发现可以使用AVFoundation Framework来完成这个任务,但我不知道AVFoundation的哪些API或函数能够完成这个视频处理任务。

谁能建议我使用哪个功能来实时从视频流中获取图像帧或原始图像数据?

如果您能给我一些示例代码,我将不胜感激

非常感谢你帮助我...

0 投票
0 回答
1250 浏览

iphone - iOS - 截屏视频

UIGetScreenImage() 是 Apple 的私有 API,他们不会让我使用它。我用它来拍摄全屏视频的快照图像,然后将快照保存到相册。他们建议我反过来使用AVCaptureSession为我的视频获取“屏幕截图”。但问题是我正在流式传输实时视频,并且不确定捕获会话是否允许我拍摄正在播放的视频的快照。有什么建议么?如果这不起作用,是否有可行的 Open-GL 解决方案?

0 投票
1 回答
7006 浏览

iphone - 来自 AVCaptureStillImageOutput 的 UIImage 方向不正确

我正在尝试从 AVCaptureStillImageOutput 捕获像素数据,并注意到在将图像裁剪为 CGImage 后,它会重新定向。为了测试这一点,我将一个临时图像输出到照片库。现在我注意到,即使在图像被裁剪之前,它的缩略图也会旋转,而完整图像则不会。(当我将 UIImage 传递给需要适当尺寸的图像的自定义 pixelDataManager 时,这稍后会成为问题。)

设置captureVideoPreviewLayer.orientation = AVCaptureVideoOrientationPortrait;[videoConnection setVideoOrientation:AVCaptureVideoOrientationPortrait];似乎没有改变任何东西。

有什么想法吗???我会把它分成几部分...

1) 设置会话、输入和输出:

2) 设置视频连接:

3)输出捕获的图像:

0 投票
0 回答
840 浏览

objective-c - iOS:直接调整 CMSampleBufferRef 的大小?

我从 iOS 4 上的 AVCaptureSession/AVCaptureVideoDataOutput 获取 CMSampleBufferRef 缓冲区。我可以直接调整这些缓冲区的大小(无需转换)吗?

我并不总是需要全分辨率提要,我正在寻找性能提升。切换 sessionPreset 太慢了,因为一直使用完整的 AVCaptureSessionPresetHigh 缓冲区。

谢谢。

0 投票
0 回答
364 浏览

objective-c - iPhone SDK - 获取/计算相机视野 (FOV)

我正在开发一个简单的增强现实应用程序,使用相机覆盖来检测附近的商店。无论如何,我使用核心数据有三个纬度/经度点“A”、“B”和“C”。点“A”是用户当前位置。点“B”和“C”代表固定的商店位置。

  1. 我如何确定用户面临的位置?
  2. 我如何知道点“A”的视线中是否有“B”或“C”?
0 投票
0 回答
1284 浏览

ios - AVCaptureVideoDataOutput 中的样本缓冲区

我正在考虑在一个应用程序中,我想sampleBuffer从捕获输出中获取并处理它以成为网络服务器上的流广播我两个月以来一直在做 Goggling,我已经想出了很多AVFoundation这样的事情捕获会话和相关的代表

我的问题是:我可以将此委托中的示例缓冲区上传到 Web 服务器并对其进行处理,例如附加示例以制作流或视频文件,甚至对其进行解码

? 或者我是否需要在 Objective-C 代码中进行处理并将其上传到以特定编解码器解码并准备好进行流式传输的 Web 服务器?

0 投票
1 回答
973 浏览

iphone - 来自多任务时如何使手电筒/闪光灯可靠

当我离开应用程序并回到它的“开启”状态时,有时它可以通过打开手电筒/闪光灯正常工作,但大多数时候它要么闪烁要么保持关闭。

应用代理.m

我唯一没有包含在代码中的是一个触摸,即使它调用 toggleTorch 进行开/关。那件作品再次很棒,我在这里测试的是在启动时打开它,也就是 DidEnterForeground 以及当应用程序从多任务会话返回时。

0 投票
2 回答
2171 浏览

ios4 - 使用 AVFoundation 录制到电影文件时出错

这是一个奇怪的问题。我的项目中没有更改任何涉及此的代码,但我的视频录制随机停止工作。当我尝试将电影保存到文件时,出现以下错误:

错误域=NSOSStatusErrorDomain 代码=-12780 “操作无法完成。(OSStatus 错误 -12780。)”

我从以下代码开始捕获:

}

然后我从 viewController 调用这个方法开始录制:

}

这时我得到这个函数的错误。

  • (void)captureOutput:(AVCaptureFileOutput *)captureOutput didFinishRecordingToOutputFileAtURL:(NSURL *)outputFileURL fromConnections:(NSArray *)connections error:(NSError *)error

真正奇怪的是它有时会随机工作。就像,我会编译这个项目,它会在 100% 的时间内工作。下次我编译它将工作 0%。我可能做错了什么?有什么明显的吗?

0 投票
3 回答
1675 浏览

ios - MPMoviePlayerController 冻结 AVCaptureVideoPreviewLayer

我正在构建一个使用 AVCaptureVideoPreviewLayer 显示视频预览层的应用程序。它的设置非常简单,而且似乎运行良好:

后来,我遇到了一种情况,用户可以使用 MPMoviePlayerController 将包含预览层的视图与显示包含录制视频的视图交换。我是这样设置的(前面的代码块来自 UIViewController 的 viewDidLoad: 方法,这是在同一个控制器中,作为它自己更改视图的方法的一部分:

问题是当 MPMoviePlayerController 添加到视图中时,预览“冻结”——它显示了在进入此代码块之前相机前面的任何内容的最后一帧。我没有收到任何错误消息,也找不到任何问题的根源。

我确实注意到我没有释放player变量。任何这样做的尝试都会破坏播放器,包括自动释放它,或尝试在通知回调中释放它。但是,我不认为这个问题(虽然它本身可能是一个问题)是杀死我的预览层的根源。

如果您对这个问题有任何见解,我将不胜感激!

更新:@boredastronaut 在下面询问我如何在这里设置视图。我有一个控制器运行所有视图。在我的应用程序中,我有预览层,并且在同一个位置,包含播放器的视图。所有视图都加载到 -loadView: 中,我使用hidden属性来显示/隐藏这些图层。