问题标签 [avcaptureoutput]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
1716 浏览

swift - 从 Swift 中的自定义相机拍摄后裁剪图像

我有自定义相机视图,最重要的是我有指南我想将拍摄的照片裁剪到该指南,当我得到不同部分的裁剪图像时,我想获得指南内的区域。

在此处输入图像描述

在此处输入图像描述

0 投票
1 回答
738 浏览

ios - AVCaptureSession 音频预览

我提前为“愚蠢”的问题道歉,但我觉得我已经用尽了所有资源。我对 Swift 和一般编码几乎没有经验,但根据过去的经验和对 MAX MSP 等基于对象的编程的使用,我了解很多。

我正在尝试为 macOS QuickTime Player 录制功能开发一个相机/麦克风捕获 iOS 应用程序(满足我自己对 RAW 相机访问的需求,因为我确实找不到合适的东西!)。

成功实现 AVCaptureSession 视频输出后,我尝试了许多将音频发送到 Quicktime 的方法(包括 AVAudioSessionPortUSBAudio),但均无济于事。这是在我意识到 QuickTime 自动捕获 iOS 系统音频输出之前。

所以我的假设是我应该能够轻松地在 AVCapture Session 下预览音频;不是这样!似乎 Swift4 中的“不可用”中的 AVCaptureAudioPreviewOutput 或者我只是缺少一些基础知识。我在堆栈上看到文章提到需要停止音频处理,所以我希望预览/监控它很容易。

你们中有人能指出我在 AVCaptureSession 中预览音频的方法吗?我仍然有一个实例化的 AVAudioSession(我最初的尝试),并且也刚刚成功(我希望)将麦克风成功连接到 AVCaptureSession。但是,我不确定还能使用什么!我的目标:只是听到系统音频输出上的麦克风输入:Quicktime 连接应该(希望)处理来自 USB 端口的捕获(当 iOS 设备被选为麦克风时,手机上播放的音乐通过 USB 传输)。

我还尝试了其他一些我正在迷失的事情;

也许可以在捕获的同时使用 AVAudioSession ?但是,我的基本知识表明同时运行 Capture 和 Audio Sessions 存在问题。

任何帮助将不胜感激,我相信你们中的许多人会翻白眼并能够轻松指出我的错误!

谢谢,

我要

0 投票
1 回答
1031 浏览

ios - iPhone 7+、ios 11.2:当前配置不支持深度数据传输

这个虫子快把我逼疯了。我正在尝试AVDepthData使用其 DualCam 生成从 iPhone 7+ 获取的绝对最小代码。

我有这个代码:

如果我注释掉标有“错误”的行,代码将按我的预期工作,并打印nil.depthData

但是,保持原样,我得到一个例外。错误消息指出:AVCapturePhotoOutput setDepthDataDeliveryEnabled:] Depth data delivery is not supported in the current configuration

如何更改“当前配置”以支持深度交付?

我看过这个视频:https ://developer.apple.com/videos/play/wwdc2017/507/这很有帮助,我相信我已经遵循了完成这项工作所需的确切步骤。

任何提示将不胜感激!

0 投票
0 回答
181 浏览

ios - ios中自定义相机的画中画效果

我正在尝试使用 swift 4 在 ios 中创建 pip 效果相机,为此我采取了以下控件: View FrontCameraView(ImageView) BackCameraView(ImageView) MaskedCameraView(ImageView)

FrontCameraView 获取模糊图像,Frame Image 获取 pip 帧,而 maskedCameraView 获取蒙版图像。

现在,当我捕捉图像时

这是在自定义相机上应用实时效果:-

//捕获图像的代码 @IBAction func takePhoto(_ sender: UIButton) {

问题:-我可以使用此代码实现画中画效果,但是当我尝试使用 videoOutput(AVCaptureVideoDataOutput) 捕获图像时,它无法捕获图像。如果我使用 photoOutput(AVCaptureStillImageOutput) 做同样的事情,它不会让我在实​​时相机上应用 PIP 效果。请帮助我解决这个问题,我在这一点上已经坚持了一周。对此方向的任何形式的指导将不胜感激。在此先感谢!

0 投票
1 回答
210 浏览

ios - iOS:不使用 AVCaptureMovieFileOutput 和 AVCaptureVideoDataOutput 调用 captureOutput 函数

我正在尝试实现一个可以显示后置摄像头预览视频并处理捕获的帧的视图。我想使用两个输出:一个用于保存视频,一个用于处理每一帧。

我已将代表添加到我的视图控制器中:

此外,我已将输出添加到 AVCaptureSession:

我的预览层完美运行,我可以在我的 UI 视图中看到图片显示。但是从不调用 captureOutput。如果我评论:

然后,我的 captureOutput 被调用并且工作正常,但我想将我的视频保存在一个文件中。我正在使用 swift 3,所以我正在使用:

0 投票
0 回答
129 浏览

avcapturesession - AVCaptureOutput 和对象识别

到目前为止,我是新手,Swift并且一直发现 Stackoverflow 对我的故障排除非常有帮助。在我当前的项目中,除了已经存在的捕获功能之外,我还试图创建一个类似于附加屏幕截图的置信度标签:

信心标签屏幕截图.

当我运行我的代码时,相机视图和捕获功能可以工作,但对象识别(inception V3)似乎没有接收来自AVCaptureOutput(它也没有将结果打印到控制台)的数据。

我没有收到任何错误消息,所以我不知道我做错了什么。任何反馈将不胜感激

谢谢!

0 投票
1 回答
210 浏览

swift4 - Swift 4,有没有办法在不使用 capturePhoto 的情况下捕捉高质量的照片?

我知道 AvcaptureSession.Preset.Photo 的视频输出大小为 750/1000,照片输出大小为 3024 / 4034 有没有办法在不使用 capturePhoto 的情况下捕获照片输出?

我试图从“didoutput”捕获,但这是一个视频输出,所以我得到了 750/1000 的大小。

请帮帮我..

0 投票
1 回答
1525 浏览

ios - 捕获视频并通过 AVAssetWriter 保存

我想将AVAssetWriter输出保存到相机胶卷,我目前正在将其保存到文档目录。

我已经尝试使用UISaveVideoAtPathToSavedPhotosAlbum(_:_:_:_:). 我目前正在使用AVAssetWriter写入.documentsdirectotry. 但是,当我尝试编写时,它会默默地失败。要写,我会打电话startRecording(),我会打电话stopRecording()完成写作。

当前的实现设置了相机和预览,但是没有任何东西保存到输出中。它应该保存到 .documentDirectory,但是,它没有保存。我想把它保存到相机胶卷,但我不确定我应该在哪里打电话UISaveVideoAtPathToSavedPhotosAlbum(_:_:_:_:)。问题可能出在我的扩展代表身上。

预先感谢您的帮助。

0 投票
1 回答
813 浏览

swift - 在 AVCapture Swift 中仅捕获相机预览

这是我的代码

在此处输入图像描述

查看图像,我想保存背景颜色为黄色的图像,我可以通过它看到相机

但是我保存图像,似乎保存了整个视图,而不是正方形。

我使 UIImageView 与黄色 UIView 大小相同并保存输出,它需要整个视图捕获并调整其大小。

就像用挤压把矩形变成正方形

我怎么不能只捕捉黄色背景大小并保存?

0 投票
1 回答
93 浏览

uikit - 将 CGRect 从 CALayer 转换为 UIImage

我有一个相机应用程序,它在一个AVCaptureVideoPreviewLayer实例中显示视频预览,其中包括一个 CGRect(例如用户周围的框架)。该层与包含该层的层具有相同的大小UIView(例如 667x375)。

如何CGRect将图层的坐标空间转换为图像输出?