0

我正在为客户做一些音频编程,但遇到了一个我不明白的问题。

我有一个由 CoreAudio 反复调用的渲染回调。在这个回调中,我有以下内容:

// Get the audio sample data
AudioSampleType *outA = (AudioSampleType *)ioData->mBuffers[0].mData;

Float32 data;

// Loop over the samples
for (UInt32 frame = 0; frame < inNumberFrames; frame++) {

    // Convert from SInt16 to Float32 just to prove it's possible
    data = (Float32) outA[frame] / (Float32) 32768;

    // Convert back to SInt16 to show that everything works as expected
    outA[frame] = (SInt16) round(next * 32768);

}

这按预期工作,表明没有任何意外的舍入错误。

我想做的下一件事是添加一个小的延迟。我在类中添加了一个全局变量:

即在@implementation 行下方

Float32 last = 0;

然后我使用这个变量来获得一帧延迟:

// Get the audio sample data
AudioSampleType *outA = (AudioSampleType *)ioData->mBuffers[0].mData;

Float32 data;
Float32 next;

// Loop over the samples
for (UInt32 frame = 0; frame < inNumberFrames; frame++) {

    // Convert from SInt16 to Float32 just to prove it's possible
    data = (Float32) outA[frame] / (Float32) 32768;

    next = last;
    last = data;


    // Convert back to SInt16 to show that everything works as expected
    outA[frame] = (SInt16) round(next * 32768);

}

这一次,信号上出现了奇怪的音频失真。

我只是看不出我做错了什么!任何建议将不胜感激。

4

1 回答 1

2

您所做的似乎是在您的音频上引入了无意的移相器效果。

这是因为您只延迟了音频的一个通道,因此结果是左通道比右通道延迟了一帧。这会导致一些奇怪的频率消除/放大,符合您对“奇怪的音频失真”的描述。

尝试将效果应用于两个通道:

AudioSampleType *outA = (AudioSampleType *)ioData->mBuffers[0].mData;
AudioSampleType *outB = (AudioSampleType *)ioData->mBuffers[1].mData;
// apply the same effect to outB as you did to outA

这假设您正在使用立体声音频(即ioData->mNumberBuffers == 2

作为风格问题,last在渲染回调中使用像变量一样的全局变量是(IMO)一个坏主意。使用inRefCon传递适当的上下文(作为单个变量或必要时作为结构)。不过,这可能与您遇到的问题无关。

于 2012-10-31T03:47:25.027 回答