最近我遇到了下一个问题。我使用 CoreAudio AudioUnit (RemoteI/O) 在 iOS 应用程序中播放/录制声音流。
进入音频单元的声音流是 2 通道 LPCM,16 位,有符号整数,交错(我还配置了一个基本相同的输出记录流,但每个数据包和帧只有一个通道和 2 个字节)。
我已将输入 ASBD 配置如下(设置它和初始化单元时没有错误):
ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
ASBD.mBytesPerPacket = 4;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 4;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;
在我的渲染回调函数中,我得到带有一个缓冲区的 AudioBufferList(据我所知,因为音频流是交错的)。
我有一个用于测试的示例立体声文件,它是具有 2 个明显通道的 100% 立体声。我将它翻译成对应于 ASBD 的流并馈送到音频单元。
当我播放样本文件时,我只听到左声道。
我会很感激为什么会发生这种情况的任何想法。如果需要,我可以发布更多代码。
更新:我试图设置
ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked | kLinearPCMFormatFlagIsNonInterleaved;
ASBD.mBytesPerPacket = 2;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 2;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;
ASBD 和我有两个缓冲区的缓冲区列表。我将流解交错为 2 个通道(1 个通道用于 1 个缓冲区)并得到相同的结果。我尝试在 iPad 上使用耳机和扬声器(我知道扬声器是单声道的)。