2

我的目标是:允许我的 .NET 程序的用户选择他们自己的 .wav 文件以获得音效。这些效果可以同时播放。NAudio 似乎是我最好的选择。

我决定使用 WaveMixerStream32。一个早期的挑战是我的用户拥有不同格式的 .wav 文件,因此为了能够将它们与 WaveMixerStream32 混合在一起,我需要将它们“标准化”为一种通用格式。我无法找到一个很好的例子来遵循,所以我怀疑我的问题是我做错了这部分的结果。

我的问题是,当播放某些声音时,结尾处会发出非常明显的“咔哒”声。我可以自己重现这个。

此外,我的用户抱怨说,有时声音根本没有播放,或者一直“刺耳”。我无法在开发中重现这一点,但我在我们的生产环境中亲耳听到了这一点。

我自己使用 Windows Media 和 VLC 播放了用户的 wav 文件,所以我知道这些文件没有损坏。我如何将它们与NAudio一起使用一定是个问题。

我的 NAudio 版本是 v1.4.0.0。

这是我使用的代码。要设置混音器:

_mixer = new WaveMixerStream32 { AutoStop = false, };
_waveOutDevice = new WaveOut(WaveCallbackInfo.NewWindow())
{
    DeviceNumber = -1,
    DesiredLatency = 300,
    NumberOfBuffers = 3,
};
_waveOutDevice.Init(_mixer);
_waveOutDevice.Play();

令人惊讶的是,如果我在这里将“NumberOfBuffers”设置为 2,我发现声音质量很糟糕,每秒会出现几次“滴答声”。

为了初始化一个声音文件,我这样做了:

var sample = new AudioSample(fileName);
sample.Position = sample.Length; // To prevent the sample from playing right away
_mixer.AddInputStream(sample);

AudioSample 是我的课。它的构造函数负责 wav 文件格式的“规范化”。它看起来像这样:

private class AudioSample : WaveStream
{
private readonly WaveChannel32 _channelStream;
public AudioSample(string fileName)
{
    MemoryStream memStream;
    using (var fileStream = File.OpenRead(fileName))
    {
        memStream = new MemoryStream();
        memStream.SetLength(fileStream.Length);
        fileStream.Read(memStream.GetBuffer(), 0, (int)fileStream.Length);
    }
    WaveStream originalStream = new WaveFileReader(memStream);
    var pcmStream = WaveFormatConversionStream.CreatePcmStream(originalStream);
    var blockAlignReductionStream = new BlockAlignReductionStream(pcmStream);
    var waveFormatConversionStream = new WaveFormatConversionStream(
        new WaveFormat(44100, blockAlignReductionStream.WaveFormat.BitsPerSample, 2), blockAlignReductionStream);
    var waveOffsetStream = new WaveOffsetStream(waveFormatConversionStream);
    _channelStream = new WaveChannel32(waveOffsetStream);
}

基本上,AudioSample 委托给它的 _channelStream 对象。为了播放 AudioSample,我的代码将其“Position”设置为 0。执行此操作的代码被编组到 UI 线程。

几乎效果很好。我可以同时播放多个声音。不幸的是,如上所述,音质很差。谁能帮我弄清楚为什么?

4

1 回答 1

4

回答您的问题的几点:

  • 是的,在将它们输入混音器之前,您必须让所有输入具有相同的采样率。这就是数字音频的工作原理。WaveFormatConversion 流提供的 ACM 采样率转换并不出色(没有混叠保护)。您的输入文件通常采用什么采样率?
  • 您通过两个 WaveFormatConversionStreams 传递每个输入。只有在绝对必要时才这样做。
  • 我很惊讶您在 NumberOfBuffers=2 时声音变差了,这现在是 NAudio 中的默认值。您是否一直在暂停和恢复,因为存在一个缓冲区可能被丢弃的错误(已在最新版本中修复,并将在 NAudio 1.4 最终版中修复)
  • 单击文件末尾可能意味着它不会以零样本结束。您必须添加淡出来消除这种情况(很多媒体播放器会自动执行此操作)
  • 每当您解决不良声音问题时,我总是建议使用 WaveFileWriter 将您的 WaveStream 转换为 WAV 文件(注意不要产生永无止境的文件!),这样您就可以在另一个媒体播放器中收听它。这使您可以快速确定是您的音频处理导致问题还是播放本身。
于 2011-06-01T06:45:05.207 回答