我想将AVAudioFoundation
麦克风输入用于语音检测,如本 ios 示例所示,并同时使用 AudioKit 通过相同的麦克风输入检测用户语音的音高。后一个 API 可能是第一个 API 的封装,但有自己的类和初始化。有没有办法像语音示例中那样为 AudioKit 提供现有的麦克风配置,或者同时使用语音 API 和 AudioKit 的麦克风音高检测 API 的替代方法?我怎样才能做到这一点?
编辑:这个问题有点复杂
我需要能够同步三件事:触摸事件、音频套件检测时间和语音检测时间。这些中的每一个都在不同的时基上运行。语音给了我关于录音开始的片段时间戳。事件的时间戳UITouch
会有所不同。我不确定 AudioKit 的时间戳是什么。这里提到了一些主机时间和 AV 时间戳,但我不确定这会让我到任何地方。语音和音频同步有点不清楚。我可以指导一下这可能如何工作吗?