3

我正在android中开发一个扬声器识别应用程序,我想在使用扬声器识别算法对其进行分析之前处理来自麦克风的音频输入。我遇到了WebRTC 中的噪声抑制模块。我已经使用 JNI 在 android 中设置了它。

我对模块中的函数WebRtcNs_Process有疑问。在头文件中,它说int WebRtcNs_Process (NsHandle* NS_inst, short* spframe, short* spframe_H, short* outframe, short* outframe_H);

根据头文件,
spframe :指向L 波段语音帧缓冲区的指针
spframe_H :指向H 波段 语音帧缓冲区的指针
outframe :指向L 波段输出帧的指针
outframe_H :指向H 波段 输出帧的指针

有谁知道这些论点指的是什么?又名什么是L波段H波段?L频段的语音帧缓冲区和H频段的语音帧缓冲区有什么区别?

谢谢!!

4

1 回答 1

2

对于遇到这个问题的人,如果你看一下WebRTC中的audio_processing模块,你会发现它只对super-wb进行频段分割,即32kHz采样率。

因此,如果您使用 8kHz 或 16kHz 采样率,您可以将 spframe_H 和 outframe_H 设置为 NULL,并将 spframe 和 outframe 设置为原始音频数据。如果您使用的是 32kHz,那么您需要像这里一样进行频带分割

于 2014-07-09T15:44:21.427 回答