2

嗨,我在客户端缓冲了一个 PCM 数据数组(Float32)(所有这些音频数组都是同一首歌曲的一部分)所以它有点像 PCM 数据的客户端缓冲。从服务器下载 N 个数组后,我开始播放这些缓冲区并调用下面的函数来播放示例数组。

var AudioStart =0;

function playPcmChunk(data){

    var source = audioContext.createBufferSource();

    var audio=new Float32Array(data);

    var audioBuffer = audioContext.createBuffer(1, audio.length , 44100);

    audioBuffer.getChannelData(0).set(audio);

    source.buffer = audioBuffer;

    source.start(AudioStart);

    AudioStart += audioBuffer.duration;
}

在每个样本之间我都会得到点击。

现在,为了确保我查看了服务器端的数据,它与 Audacity 一起运行良好且流畅。

然后进行调试,我逐字打印出这些值,并在客户端和服务器端进行比较,看看是否存在传输问题并且它们是相同的。

那么为什么我会在缓冲的样本数组之间获得点击声音。

我计算的确切时间不正确吗?这是一个已知的网络音频 api 问题吗?

我认为这是尽可能精确的。我是否需要应用过滤器来消除点击。该过滤器的名称是什么?即使有我认为那将是黑客攻击。

欢迎任何想法

编辑:

这是我读取 websocket 并将 30 个(这完全是一个随机数)这些样本存储在一个数组中的地方。在存储了 30 个之后,我开始循环每个样本并调用 playPcmChunk 并丢弃其余的音频。(这是用于测试)

每个都是 44100 32bitFloat,单声道。

wsAudio.onmessage = function (messageEvent) {
        if (messageEvent.data instanceof Blob) {


            var fileReader = new FileReader();
            fileReader.onload = function (e) {
                if (currentCount == -1) {
                    return;
                }
                if (currentCount < 30) {
                    audioChunks[currentCount] = e.target.result;
                    currentCount++;
                } else {

                    for (var j = 0; j < 30; j++) {

                        playPcmChunk(audioChunks[j]);
                    }
                    currentCount = -1;
                }



            };
            fileReader.readAsArrayBuffer(messageEvent.data);



        }
    }
4

2 回答 2

2

我正在做类似的事情并遇到了同样的问题。解决方案是使用 audioContext.createJavaScriptNode()。

而不是在从 websocket 接收块时播放块,您应该将其存储在某处并在请求时填充输出缓冲区。

==

var audioNode = audioContext.createJavaScriptNode(4096, 1, 1);

audioNode.onaudioprocess = function(event) {
                           if (decodedAudioBuffer.length >= bufferSize) {
                                  var decoded = decodedAudioBuffer.splice(0, bufferSize);
                                  var samples = new Float32Array(bufferSize);
                                  for (var i=0; i<decoded.length; i++) {
                                         samples[i] = decoded[i];
                                  }

                                  samples = resampler.resample(samples);
                                  var output = event.outputBuffer.getChannelData(0);
                                    for (var i = 0; i < output.length; i++) {
                                      output[i] = samples[i];
                                    }

                           }
};

audioNode.connect(audioContext.destination);
于 2013-10-27T04:55:07.373 回答
0

认为问题在于您正在根据audioContext.currentTime加上总缓冲区持续时间进行调度。但问题是这currentTime是一个移动的目标。你需要一个一致的锚来确定你所有的时间安排。

你可能想做的是,当你第一次开始演奏时,说出来var AudioStart = audioContext.currentTime,然后继续以你现在的方式添加它。然后只需将您的播放安排为source.start(AudioStart);.

于 2013-06-17T20:54:52.997 回答