0

我目前正在开发一个非常简单的应用程序,该应用程序使用 AVAudioRecorder 记录用户的歌声,并使用 AUGraph(来自 iPhoneMixerEQGraphTest 示例)对其进行处理,该应用程序将效果应用于语音,然后最终合并歌曲+语音。

我现在唯一的问题是我事先记录,然后尝试处理它。但是我不希望用户必须听整首歌曲+他的歌声才能将其渲染到文件中。

我的问题是:

  • 有没有办法让 AUGraph 在后台渲染(使用 CAAudioUnitOutputCapturer.h)?这会更快(不是实时速度)并且不会通过扬声器输出。
  • 或者有没有一种方法可以立即将麦克风音频作为 AudioUnit 混合,而不会通过扬声器输出麦克风而只输出音乐。

干杯,

M0rph3v5

4

1 回答 1

0

最终,我只是让一家外部公司进行音频处理,该公司提供了一个库,该库将通过扬声器输出麦克风,在其上添加一些 eq 并最终合并它。

CoreAudio 是个婊子 :(

于 2010-12-28T13:10:53.090 回答