问题标签 [avaudiopcmbuffer]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
28 浏览

ios - 通过 AVCaptureSession/AVCaptureAudioDataOutput 使用 CMSampleBuffer 强制立体声

我不知道该怎么做才能解决这个问题,我一直在寻找并没有找到任何东西,所以我想我会问这个问题,以防其他人有类似的问题。

这是一个带有 Swift 5 的 iOS 应用程序,可以捕获视频和音频。它在没有任何添加的外围设备(单声道麦克风)和立体声外围设备的情况下工作正常,但是当添加超过 3 个输入音频数据通道的东西时,它会崩溃(因为录制到 AAC 音频;另外我希望最终文件是单声道/立体声,因此它具有预期用途)。

我查看了 AVAudioEngine ,但似乎没有任何方法可以将输出发送到 AVCaptureSession 的 captureOutput 函数。所以我的计划是在它到达 CMSampleBuffer 之后删除额外的音频通道。在下面列出的代码之后,附加了不同的 SwiftUI 组件和一个记录器来处理数据。

问题:当硬件提供 4-32 个音频信号时,我如何获得 2 通道 CMSampleBuffer?

捕获输出函数

扩展名:CMSampleBuffer

扩展名:AVAudioPCMBuffer

0 投票
0 回答
19 浏览

ios - 如何将 AVAudioPCMBuffer 导出到 wav 文件?

afinfo输出:

为什么估计的持续时间为零?

我可以导出 wav 文件,但无法在 AVAudioPlayer 中播放。VLC 播放器可以播放生成的文件。我的代码有什么问题?