我正在做一个有点雄心勃勃的项目,以在带有耳塞或耳机的 Android 上实现主动降噪。
我的目标是用安卓手机麦克风记录环境噪声,反转相位(从音频记录中提取的短值上的简单 *-1?),并通过耳机播放反转波形。如果延迟和幅度接近正确,它应该消除环境中大量的机械结构噪声。
这是我到目前为止所得到的:
@Override
public void run()
{
Log.i("Audio", "Running Audio Thread");
AudioRecord recorder = null;
AudioTrack track = null;
short[][] buffers = new short[256][160];
int ix = 0;
/*
* Initialize buffer to hold continuously recorded audio data, start recording, and start
* playback.
*/
try
{
int N = AudioRecord.getMinBufferSize(8000,AudioFormat.CHANNEL_IN_MONO,AudioFormat.ENCODING_PCM_16BIT);
recorder = new AudioRecord(MediaRecorder.AudioSource.MIC, 8000, AudioFormat.CHANNEL_IN_MONO, AudioFormat.ENCODING_PCM_16BIT, N*10);
//NoiseSuppressor ns = NoiseSuppressor.create(recorder.getAudioSessionId());
//ns.setEnabled(true);
track = new AudioTrack(AudioManager.STREAM_MUSIC, 8000,
AudioFormat.CHANNEL_OUT_MONO, AudioFormat.ENCODING_PCM_16BIT, N*10, AudioTrack.MODE_STREAM);
recorder.startRecording();
track.play();
/*
* Loops until something outside of this thread stops it.
* Reads the data from the recorder and writes it to the audio track for playback.
*/
while(!stopped)
{
short[] buffer = buffers[ix++ % buffers.length];
N = recorder.read(buffer,0,buffer.length);
for(int iii = 0;iii<buffer.length;iii++){
//Log.i("Data","Value: "+buffer[iii]);
buffer[iii] = buffer[iii] *= -1;
}
track.write(buffer, 0, buffer.length);
}
}
catch(Throwable x)
{
Log.w("Audio", "Error reading voice audio", x);
}
/*
* Frees the thread's resources after the loop completes so that it can be run again
*/
finally
{
recorder.stop();
recorder.release();
track.stop();
track.release();
}
}
当我发现 Android API 实际上已经有了一个 NoiseSuppression 算法时,我感到很兴奋(你会在上面看到它被注释掉了)。我用它进行了测试,发现 NoiseSuppressor 并没有做太多的事情来消除恒定的音调,这让我相信它实际上只是在非人声频率上执行带通滤波器。
所以,我的问题:
1) 上述代码从麦克风录音到耳机播放大约需要 250-500 毫秒。这种延迟很糟糕,减少它会很好。任何建议将不胜感激。
2)无论延迟有多紧,我的理解是播放波形将与实际环境噪声波形有相位偏移。这表明我需要执行某种波形匹配来计算这个偏移量并进行补偿。关于如何计算的想法?
3) 在补偿延迟方面,会是什么样子?我在每个周期都有一系列短裤,那么 30 毫秒或 250 毫秒的延迟会是什么样子?
我知道这种方法的基本问题是手机的位置不在头部旁边可能会引入一些错误,但我希望通过一些动态或固定延迟校正它可能能够克服它.
感谢您的任何建议。