WebAudioApi AudioContext 可以从MediaStreamSource创建一个源:
const {audioCtx} = this;
const source = audioCtx.createMediaStreamSource(mediaStream);
source.connect(audioCtx.destination);
source.start(audioCtx.currentTime);
Audio-Element 通过captureStream()支持可访问的媒体流:
const audio = new Audio();
audio.src = src;
const mediaStream = audio.captureStream();
正如您在文档中看到的那样,两个流 - 音频捕获流以及 createAudioStreamSource 的流参数都是 MediaStreams,为什么它不起作用。问题出在哪里,我该如何解决?
编辑:
问题是broser抛出这个错误:
× 未处理的拒绝(InvalidStateError):无法在“BaseAudioContext”上执行“createMediaStreamSource”:MediaStream 没有音轨