我需要在 iphone 上实时播放线性 pcm 数据。
我通过 RTSP 获得了LIVE数据流,我目前可以从 iphone 读取它,将其保存到文件中,在支持 pcm 的桌面音频播放器上播放,因此我认为传输还可以。
现在我被卡住了,我已经完全了!不知道如何处理包含数据的 NSData 对象。
我做了一些研究,最终得到了 AudioUnits,但我无法将我的 NSdata 分配给音频缓冲区,我不知道如何分配。
就我而言,我分配了回调:
AURenderCallbackStruct input;
input.inputProc = makeSound;
input.inputProcRefCon = self;
并具有“makeSound”功能:
OSStatus makeSound(
void *inRefCon,
AudioUnitRenderActionFlags *ioActionFlags,
const AudioTimeStamp *inTimeStamp,
UInt32 inBusNumber,
UInt32 inNumberFrames,
AudioBufferList *ioData)
{
//so what to do here?
//ioData->mBuffers[0].mdata = [mySound bytes]; does not work, nor does
//ioData->mBuffers = [mySound byes];
return noErr;
}
我的方法大体上是错误的吗?
我需要知道/学习/实施什么?我是一个完整的音频新手,所以我的建议是,我不需要多个缓冲区,因为当我从 rtsp 获得新的声音包时,旧的声音包就结束了,因为它是一个实时流(我基于我的录音,这只是附加了没有查找表示时间戳的字节,因为无论如何我都没有收到)
干杯