1

我目前正在阅读 MSDN 的文档以将流渲染到音频渲染器.. 或者换句话说,从麦克风播放我捕获的数据。

http://msdn.microsoft.com/en-us/library/dd316756%28v=vs.85%29.aspx

这个例子提供了例子。

我现在的问题是我无法真正理解项目流程。我目前有一个不同的类来存储我从捕获过程中获得的以下参数。当程序从麦克风捕获流式音频数据时,这些参数将不断重写。

BYTE data;
UINT32 bufferframecount;
DWORD flag;
WAVEFORMATEX *pwfx;

我的问题是, loadData() 函数究竟是如何工作的。是否假设从捕获过程中获取我正在编写的参数?程序如何将数据发送到音频渲染器,并在我的扬声器中播放。

4

1 回答 1

0

loadData() 函数填充 pData 指向的音频。该示例抽象了音频源,因此这可以是从 .wav 文件到您已经捕获的麦克风音频的任何内容。

因此,如果您尝试从该示例构建,我将实现 MyAudioSource 类,并让它在调用 loadData() 时从文件中读取 PCM 或浮点样本。然后,如果您运行该程序,它应该从扬声器中播放文件中的音频。

于 2011-07-26T22:08:21.277 回答