4

我编写了一个 voip 应用程序,它使用“novocaine”库来录制和播放声音。我将采样率设置为 8kHz。此采样率在音频单元的 AudioStreamBasicDescription 中的 novocaine 中设置,并作为音频会话属性 kAudioSessionProperty_PreferredHardwareSampleRate 设置。我了解设置首选硬件采样率并不能保证实际硬件采样率会改变,但它适用于除 iPhone6s 和 iPhone6s+ 之外的所有设备(当路由更改为扬声器时)。使用 iPhone6s(+) 和扬声器路由,我从麦克风接收到 48kHz 的声音。所以我需要以某种方式将这个 48 kHz 的声音转换为 8 kHz。在文档中,我发现在这种情况下可以使用 AudioConverterRef,但我在使用它时遇到了麻烦。

我使用 AudioConverterFillComplexBuffer 进行采样率转换,但它总是返回 -50 OSStatus(传递给函数的一个或多个参数无效)。这就是我使用音频转换器的方式:

// Setup AudioStreamBasicDescription for input
inputFormat.mSampleRate = 48000.0;
inputFormat.mFormatID = kAudioFormatLinearPCM;
inputFormat.mFormatFlags = kAudioFormatFlagIsFloat | kAudioFormatFlagsNativeEndian | kAudioFormatFlagIsPacked;
inputFormat.mChannelsPerFrame = 1;
inputFormat.mBitsPerChannel = 8 * sizeof(float);
inputFormat.mFramesPerPacket = 1;
inputFormat.mBytesPerFrame = sizeof(float) * inputFormat.mChannelsPerFrame;
inputFormat.mBytesPerPacket = inputFormat.mBytesPerFrame * inputFormat.mFramesPerPacket;

// Setup AudioStreamBasicDescription for output
outputFormat.mSampleRate = 8000.0;
outputFormat.mFormatID = kAudioFormatLinearPCM;
outputFormat.mFormatFlags = kAudioFormatFlagIsFloat | kAudioFormatFlagsNativeEndian | kAudioFormatFlagIsPacked;
outputFormat.mChannelsPerFrame = 1;
outputFormat.mBitsPerChannel = 8 * sizeof(float);
outputFormat.mFramesPerPacket = 1;
outputFormat.mBytesPerFrame = sizeof(float) * outputFormat.mChannelsPerFrame;
outputFormat.mBytesPerPacket = outputFormat.mBytesPerFrame * outputFormat.mFramesPerPacket;


// Create new instance of audio converter
AudioConverterNew(&inputFormat, &outputFormat, &converter);

// Set conversion quality
UInt32 tmp = kAudioConverterQuality_Medium;
AudioConverterSetProperty( converter, kAudioConverterCodecQuality,
                          sizeof( tmp ), &tmp );
AudioConverterSetProperty( converter, kAudioConverterSampleRateConverterQuality, sizeof( tmp ), &tmp );

// Get the size of the IO buffer(s)
UInt32 bufferSizeFrames = 0;
size = sizeof(UInt32);
AudioUnitGetProperty(self.inputUnit,
                                 kAudioDevicePropertyBufferFrameSize,
                                 kAudioUnitScope_Global,
                                 0,
                                 &bufferSizeFrames,
                                 &size);
UInt32 bufferSizeBytes = bufferSizeFrames * sizeof(Float32);

// Allocate an AudioBufferList plus enough space for array of AudioBuffers
UInt32 propsize = offsetof(AudioBufferList, mBuffers[0]) + (sizeof(AudioBuffer) * outputFormat.mChannelsPerFrame);

// Malloc buffer lists
convertedInputBuffer = (AudioBufferList *)malloc(propsize);
convertedInputBuffer->mNumberBuffers = 1;

// Pre-malloc buffers for AudioBufferLists
convertedInputBuffer->mBuffers[0].mNumberChannels = outputFormat.mChannelsPerFrame;
convertedInputBuffer->mBuffers[0].mDataByteSize = bufferSizeBytes;
convertedInputBuffer->mBuffers[0].mData = malloc(bufferSizeBytes);
memset(convertedInputBuffer->mBuffers[0].mData, 0, bufferSizeBytes);

// Setup callback for converter
static OSStatus inputProcPtr(AudioConverterRef               inAudioConverter,
                                 UInt32*                         ioNumberDataPackets,
                                 AudioBufferList*                ioData,
                                 AudioStreamPacketDescription* __nullable* __nullable  outDataPacketDescription,
                                 void* __nullable                inUserData)
{
    // Read data from buffer
}

// Perform actual sample rate conversion
AudioConverterFillComplexBuffer(converter, inputProcPtr, NULL, &numberOfFrames, convertedInputBuffer,  NULL)

inputProcPtr 回调永远不会被调用。我尝试设置不同的帧数,但仍然收到 OSStatus -50。

1) 使用 AudioConverterRef 是进行采样率转换的正确方法还是可以以不同的方式完成?

2) 我的转换实现有什么问题?

谢谢大家

4

1 回答 1

1

一个问题是:

AudioUnitGetProperty(self.inputUnit,
                             kAudioDevicePropertyBufferFrameSize,
                             kAudioUnitScope_Global,
                             0,
                             &bufferSizeFrames,
                             &size);

kAudioDevicePropertyBufferFrameSize是 OSX 属性,在 iOS 上不存在。这段代码甚至是如何编译的?

如果您以某种方式使其编译,请检查此函数的返回代码!我有一种感觉,它失败了,而且bufferSizeFrames为零。这将使AudioConverterFillComplexBuffer回报 -50 ( kAudio_ParamError)。

因此,在 iOS 上,您可以bufferSizeFrames自己选择一个,也可以根据需要选择AVAudioSession's IOBufferDuration

另一个问题:检查您的返回代码。他们全部!

例如

UInt32 tmp = kAudioConverterQuality_Medium;
AudioConverterSetProperty( converter, kAudioConverterCodecQuality,
                      sizeof( tmp ), &tmp );

我很确定在 LPCM->LPCM 转换中没有编解码器可言,这在任何情况下kAudioConverterQuality_Medium都不是正确的值。kAudioConverterCodecQuality我看不出这个电话怎么能成功。

于 2016-01-20T21:56:59.093 回答