我的目标是:允许我的 .NET 程序的用户选择他们自己的 .wav 文件以获得音效。这些效果可以同时播放。NAudio 似乎是我最好的选择。
我决定使用 WaveMixerStream32。一个早期的挑战是我的用户拥有不同格式的 .wav 文件,因此为了能够将它们与 WaveMixerStream32 混合在一起,我需要将它们“标准化”为一种通用格式。我无法找到一个很好的例子来遵循,所以我怀疑我的问题是我做错了这部分的结果。
我的问题是,当播放某些声音时,结尾处会发出非常明显的“咔哒”声。我可以自己重现这个。
此外,我的用户抱怨说,有时声音根本没有播放,或者一直“刺耳”。我无法在开发中重现这一点,但我在我们的生产环境中亲耳听到了这一点。
我自己使用 Windows Media 和 VLC 播放了用户的 wav 文件,所以我知道这些文件没有损坏。我如何将它们与NAudio一起使用一定是个问题。
我的 NAudio 版本是 v1.4.0.0。
这是我使用的代码。要设置混音器:
_mixer = new WaveMixerStream32 { AutoStop = false, };
_waveOutDevice = new WaveOut(WaveCallbackInfo.NewWindow())
{
DeviceNumber = -1,
DesiredLatency = 300,
NumberOfBuffers = 3,
};
_waveOutDevice.Init(_mixer);
_waveOutDevice.Play();
令人惊讶的是,如果我在这里将“NumberOfBuffers”设置为 2,我发现声音质量很糟糕,每秒会出现几次“滴答声”。
为了初始化一个声音文件,我这样做了:
var sample = new AudioSample(fileName);
sample.Position = sample.Length; // To prevent the sample from playing right away
_mixer.AddInputStream(sample);
AudioSample 是我的课。它的构造函数负责 wav 文件格式的“规范化”。它看起来像这样:
private class AudioSample : WaveStream
{
private readonly WaveChannel32 _channelStream;
public AudioSample(string fileName)
{
MemoryStream memStream;
using (var fileStream = File.OpenRead(fileName))
{
memStream = new MemoryStream();
memStream.SetLength(fileStream.Length);
fileStream.Read(memStream.GetBuffer(), 0, (int)fileStream.Length);
}
WaveStream originalStream = new WaveFileReader(memStream);
var pcmStream = WaveFormatConversionStream.CreatePcmStream(originalStream);
var blockAlignReductionStream = new BlockAlignReductionStream(pcmStream);
var waveFormatConversionStream = new WaveFormatConversionStream(
new WaveFormat(44100, blockAlignReductionStream.WaveFormat.BitsPerSample, 2), blockAlignReductionStream);
var waveOffsetStream = new WaveOffsetStream(waveFormatConversionStream);
_channelStream = new WaveChannel32(waveOffsetStream);
}
基本上,AudioSample 委托给它的 _channelStream 对象。为了播放 AudioSample,我的代码将其“Position”设置为 0。执行此操作的代码被编组到 UI 线程。
这几乎效果很好。我可以同时播放多个声音。不幸的是,如上所述,音质很差。谁能帮我弄清楚为什么?