问题标签 [avcaptureoutput]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - AVCaptureSession 音频预览
我提前为“愚蠢”的问题道歉,但我觉得我已经用尽了所有资源。我对 Swift 和一般编码几乎没有经验,但根据过去的经验和对 MAX MSP 等基于对象的编程的使用,我了解很多。
我正在尝试为 macOS QuickTime Player 录制功能开发一个相机/麦克风捕获 iOS 应用程序(满足我自己对 RAW 相机访问的需求,因为我确实找不到合适的东西!)。
成功实现 AVCaptureSession 视频输出后,我尝试了许多将音频发送到 Quicktime 的方法(包括 AVAudioSessionPortUSBAudio),但均无济于事。这是在我意识到 QuickTime 自动捕获 iOS 系统音频输出之前。
所以我的假设是我应该能够轻松地在 AVCapture Session 下预览音频;不是这样!似乎 Swift4 中的“不可用”中的 AVCaptureAudioPreviewOutput 或者我只是缺少一些基础知识。我在堆栈上看到文章提到需要停止音频处理,所以我希望预览/监控它很容易。
你们中有人能指出我在 AVCaptureSession 中预览音频的方法吗?我仍然有一个实例化的 AVAudioSession(我最初的尝试),并且也刚刚成功(我希望)将麦克风成功连接到 AVCaptureSession。但是,我不确定还能使用什么!我的目标:只是听到系统音频输出上的麦克风输入:Quicktime 连接应该(希望)处理来自 USB 端口的捕获(当 iOS 设备被选为麦克风时,手机上播放的音乐通过 USB 传输)。
我还尝试了其他一些我正在迷失的事情;
也许可以在捕获的同时使用 AVAudioSession ?但是,我的基本知识表明同时运行 Capture 和 Audio Sessions 存在问题。
任何帮助将不胜感激,我相信你们中的许多人会翻白眼并能够轻松指出我的错误!
谢谢,
我要
ios - iPhone 7+、ios 11.2:当前配置不支持深度数据传输
这个虫子快把我逼疯了。我正在尝试AVDepthData
使用其 DualCam 生成从 iPhone 7+ 获取的绝对最小代码。
我有这个代码:
如果我注释掉标有“错误”的行,代码将按我的预期工作,并打印nil
.depthData
但是,保持原样,我得到一个例外。错误消息指出:AVCapturePhotoOutput setDepthDataDeliveryEnabled:] Depth data delivery is not supported in the current configuration
。
如何更改“当前配置”以支持深度交付?
我看过这个视频:https ://developer.apple.com/videos/play/wwdc2017/507/这很有帮助,我相信我已经遵循了完成这项工作所需的确切步骤。
任何提示将不胜感激!
ios - ios中自定义相机的画中画效果
我正在尝试使用 swift 4 在 ios 中创建 pip 效果相机,为此我采取了以下控件: View FrontCameraView(ImageView) BackCameraView(ImageView) MaskedCameraView(ImageView)
FrontCameraView 获取模糊图像,Frame Image 获取 pip 帧,而 maskedCameraView 获取蒙版图像。
现在,当我捕捉图像时
这是在自定义相机上应用实时效果:-
//捕获图像的代码 @IBAction func takePhoto(_ sender: UIButton) {
问题:-我可以使用此代码实现画中画效果,但是当我尝试使用 videoOutput(AVCaptureVideoDataOutput) 捕获图像时,它无法捕获图像。如果我使用 photoOutput(AVCaptureStillImageOutput) 做同样的事情,它不会让我在实时相机上应用 PIP 效果。请帮助我解决这个问题,我在这一点上已经坚持了一周。对此方向的任何形式的指导将不胜感激。在此先感谢!
ios - iOS:不使用 AVCaptureMovieFileOutput 和 AVCaptureVideoDataOutput 调用 captureOutput 函数
我正在尝试实现一个可以显示后置摄像头预览视频并处理捕获的帧的视图。我想使用两个输出:一个用于保存视频,一个用于处理每一帧。
我已将代表添加到我的视图控制器中:
此外,我已将输出添加到 AVCaptureSession:
我的预览层完美运行,我可以在我的 UI 视图中看到图片显示。但是从不调用 captureOutput。如果我评论:
然后,我的 captureOutput 被调用并且工作正常,但我想将我的视频保存在一个文件中。我正在使用 swift 3,所以我正在使用:
swift4 - Swift 4,有没有办法在不使用 capturePhoto 的情况下捕捉高质量的照片?
我知道 AvcaptureSession.Preset.Photo 的视频输出大小为 750/1000,照片输出大小为 3024 / 4034 有没有办法在不使用 capturePhoto 的情况下捕获照片输出?
我试图从“didoutput”捕获,但这是一个视频输出,所以我得到了 750/1000 的大小。
请帮帮我..
ios - 捕获视频并通过 AVAssetWriter 保存
我想将AVAssetWriter
输出保存到相机胶卷,我目前正在将其保存到文档目录。
我已经尝试使用UISaveVideoAtPathToSavedPhotosAlbum(_:_:_:_:)
. 我目前正在使用AVAssetWriter
写入.documentsdirectotry
. 但是,当我尝试编写时,它会默默地失败。要写,我会打电话startRecording()
,我会打电话stopRecording()
完成写作。
当前的实现设置了相机和预览,但是没有任何东西保存到输出中。它应该保存到 .documentDirectory,但是,它没有保存。我想把它保存到相机胶卷,但我不确定我应该在哪里打电话UISaveVideoAtPathToSavedPhotosAlbum(_:_:_:_:)
。问题可能出在我的扩展代表身上。
预先感谢您的帮助。
uikit - 将 CGRect 从 CALayer 转换为 UIImage
我有一个相机应用程序,它在一个AVCaptureVideoPreviewLayer
实例中显示视频预览,其中包括一个 CGRect(例如用户周围的框架)。该层与包含该层的层具有相同的大小UIView
(例如 667x375)。
如何CGRect
将图层的坐标空间转换为图像输出?