3

最近我遇到了下一个问题。我使用 CoreAudio AudioUnit (RemoteI/O) 在 iOS 应用程序中播放/录制声音流。

进入音频单元的声音流是 2 通道 LPCM,16 位,有符号整数,交错(我还配置了一个基本相同的输出记录流,但每个数据包和帧只有一个通道和 2 个字节)。

我已将输入 ASBD 配置如下(设置它和初始化单元时没有错误):

ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked;
ASBD.mBytesPerPacket = 4;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 4;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;

在我的渲染回调函数中,我得到带有一个缓冲区的 AudioBufferList(据我所知,因为音频流是交错的)。

我有一个用于测试的示例立体声文件,它是具有 2 个明显通道的 100% 立体声。我将它翻译成对应于 ASBD 的流并馈送到音频单元。

当我播放样本文件时,我只听到左声道。

我会很感激为什么会发生这种情况的任何想法。如果需要,我可以发布更多代码。

更新:我试图设置

ASBD.mFormatFlags = kLinearPCMFormatFlagIsSignedInteger | kLinearPCMFormatFlagIsPacked | kLinearPCMFormatFlagIsNonInterleaved;
ASBD.mBytesPerPacket = 2;
ASBD.mFramesPerPacket = 1;
ASBD.mBytesPerFrame = 2;
ASBD.mChannelsPerFrame = 2;
ASBD.mBitsPerChannel = 16;

ASBD 和我有两个缓冲区的缓冲区列表。我将流解交错为 2 个通道(1 个通道用于 1 个缓冲区)并得到相同的结果。我尝试在 iPad 上使用耳机和扬声器(我知道扬声器是单声道的)。

4

1 回答 1

2

行。所以我检查了我的代码,发现我使用了 VoiceProcessingIO 音频单元(而不是问题中的 RemoteIO),这对我的应用程序来说基本上是正确的,因为文档说“语音处理 I/O 单元(子类型 kAudioUnitSubType_VoiceProcessingIO)具有Remote I/O 单元的特点,并为双向双工通信添加回声抑制。它还添加了自动增益校正、语音处理质量调整和静音"

当我将音频单元类型更改为 RemoteIO 时,我立即获得了立体声播放。我不必更改流属性。

基本上 VoiceProcessingIO 音频单元会降级为单声道并忽略流属性。

我在 Apple 开发者论坛上发布了一个关于使用 VoiceProcessingIO 音频单元进行立体声输出的问题,但还没有得到任何答案。

对我来说,为了进行一些信号处理(例如回声消除)而使用单声道似乎很合乎逻辑,因为 iOS 设备只能录制单声道声音而无需特定的外部配件。尽管这在 Apple 文档中的任何地方都没有记录。我还遇到了一个声称立体声在 iOS5.0 之前为 VoiceProcessingIO AU 工作的人的帖子。

无论如何感谢您的关注。对此事的任何其他评论将不胜感激。

于 2013-07-12T14:00:39.510 回答