我正在另一个论坛上与一些开发人员就准确生成 MIDI 事件(注意消息等)进行辩论。人耳对轻微的计时误差非常敏感,我认为他们的主要问题来自于他们使用分辨率相对较低的计时器,这些计时器以大约 15 毫秒的间隔量化他们的事件(这足以导致可察觉的不准确性)。
大约 10 年前,我编写了一个示例应用程序(Windows 95 上的 Visual Basic 5),它是一个组合的软件合成器和 MIDI 播放器。基本前提是一个跳跃缓冲播放系统,每个缓冲区是十六分音符的持续时间(例如:每分钟有 120 个四分音符,每个四分音符是 500 毫秒,因此每个十六分音符是 125 毫秒,所以每个缓冲区为 5513 个样本)。每个缓冲区都通过 waveOutWrite 方法播放,该方法的回调函数用于排队下一个缓冲区并发送 MIDI 消息。这使基于 WAV 的音频和 MIDI 音频保持同步。
在我看来,这种方法效果很好——MIDI 音符听起来甚至没有一点不同步(而如果你使用精确到 15 毫秒的普通计时器来播放 MIDI 音符,它们听起来会明显不同步)。
理论上,这种方法会产生精确到样本的 MIDI 时序,即 0.0227 毫秒(因为每毫秒有 44.1 个样本)。我怀疑这是这种方法的真正延迟,因为在缓冲区完成和通知 waveOutWrite 回调之间可能存在一些轻微延迟。有谁知道这个延迟实际上会有多大?