我正在尝试在我的 iOS 应用程序中从内存(而不是文件)播放立体声音频缓冲区,但是当我尝试将 AVAudioPlayerNode 'playerNode' 附加到 AVAudioEngine 'audioEngine' 时,我的应用程序崩溃了。我得到的错误代码如下:
Thread 1: Exception: "required condition is false: _outputFormat.channelCount == buffer.format.channelCount"
我不知道这是否是由于我声明 AVAudioEngine、AVAudioPlayerNode 的方式,我生成的缓冲区是否有问题,或者我是否错误地附加了节点(或其他原因!)。我有一种感觉,这与我创建新缓冲区的方式有关。我正在尝试从两个单独的“单声道”阵列制作立体声缓冲区,也许它的格式不正确。
我已经宣布audioEngine:AVAudioEngine!和 playerNode:AVAudioPlayerNode!全球:
var audioEngine: AVAudioEngine!
var playerNode: AVAudioPlayerNode!
然后我加载我的应用程序将要处理的单声道源音频文件(不会播放此文件中的数据,它将被加载到数组中,处理然后加载到新缓冲区中):
// Read audio file
let audioFileFormat = audioFile.processingFormat
let frameCount = UInt32(audioFile.length)
let audioBuffer = AVAudioPCMBuffer(pcmFormat: audioFileFormat, frameCapacity: frameCount)!
// Read audio data into buffer
do {
try audioFile.read(into: audioBuffer)
} catch let error {
print(error.localizedDescription)
}
// Convert buffer to array of floats
let input: [Float] = Array(UnsafeBufferPointer(start: audioBuffer.floatChannelData![0], count: Int(audioBuffer.frameLength)))
然后将数组发送到卷积函数两次,每次都返回一个新数组。这是因为单声道源文件需要成为立体声音频缓冲区:
maxSignalLength = input.count + 256
let leftAudioArray: [Float] = convolve(inputAudio: input, impulse: normalisedLeftImpulse)
let rightAudioArray: [Float] = convolve(inputAudio: input, impulse: normalisedRightImpulse)
maxSignalLength 变量当前是输入信号的长度 + 正在与之卷积的脉冲响应 (normalisedImpulseResponse) 的长度,目前为 256。这将在某个时候成为适当的变量。
然后我声明并加载新的缓冲区及其格式,我感觉错误就在这里,因为这将是播放的缓冲区:
let bufferFormat = AVAudioFormat(commonFormat: .pcmFormatFloat32, sampleRate: hrtfSampleRate, channels: 2, interleaved: false)!
let outputBuffer = AVAudioPCMBuffer(pcmFormat: bufferFormat, frameCapacity: AVAudioFrameCount(maxSignalLength))!
请注意,我没有创建交错缓冲区,我将立体声音频数据加载到缓冲区中,如下所示(我认为这也可能是错误的):
for ch in 0 ..< 2 {
for i in 0 ..< maxSignalLength {
var val: Float!
if ch == 0 { // Left
val = leftAudioArray[i]
// Limit
if val > 1 {
val = 1
}
if val < -1 {
val = -1
}
} else if ch == 1 { // Right
val = rightAudioArray[i]
// Limit
if val < 1 {
val = 1
}
if val < -1 {
val = -1
}
}
outputBuffer.floatChannelData![ch][i] = val
}
}
音频也限制在 -1 和 1 之间的值。
然后我终于(试图)将缓冲区加载到音频节点,将音频节点附加到音频引擎,启动音频引擎然后播放节点。
let frameCapacity = AVAudioFramePosition(outputBuffer.frameCapacity)
let frameLength = outputBuffer.frameLength
playerNode.scheduleBuffer(outputBuffer, at: nil, options: AVAudioPlayerNodeBufferOptions.interrupts, completionHandler: nil)
playerNode.prepare(withFrameCount: frameLength)
let time = AVAudioTime(sampleTime: frameCapacity, atRate: hrtfSampleRate)
audioEngine.attach(playerNode)
audioEngine.connect(playerNode, to: audioEngine.mainMixerNode, format: outputBuffer.format)
audioEngine.prepare()
do {
try audioEngine.start()
} catch let error {
print(error.localizedDescription)
}
playerNode.play(at: time)
我在运行时遇到的错误是:
AVAEInternal.h:76 required condition is false: [AVAudioPlayerNode.mm:712:ScheduleBuffer: (_outputFormat.channelCount == buffer.format.channelCount)]
它没有显示发生此错误的行。我已经坚持了一段时间,并且尝试了很多不同的东西,但似乎没有很清楚的信息关于从内存播放音频而不是从我能找到的 AVAudioEngine 文件中播放音频。任何帮助将不胜感激。
谢谢!
编辑#1:更好的标题
编辑#2:更新 - 我已经找到了我收到错误的原因。这似乎是由于在将 playerNode 附加到 audioEngine 之前设置它引起的。交换顺序阻止程序崩溃并抛出错误:
let frameCapacity = AVAudioFramePosition(outputBuffer.frameCapacity)
let frameLength = outputBuffer.frameLength
audioEngine.attach(playerNode)
audioEngine.connect(playerNode, to: audioEngine.mainMixerNode, format: outputBuffer.format)
audioEngine.prepare()
playerNode.scheduleBuffer(outputBuffer, at: nil, options: AVAudioPlayerNodeBufferOptions.interrupts, completionHandler: nil)
playerNode.prepare(withFrameCount: frameLength)
let time = AVAudioTime(sampleTime: frameCapacity, atRate: hrtfSampleRate)
do {
try audioEngine.start()
} catch let error {
print(error.localizedDescription)
}
playerNode.play(at: time)
但是,我没有任何声音。使用与输入信号相同的方法创建 outputBuffer 的浮点数组后,并用断点查看其内容,它似乎是空的,所以我也必须错误地将数据存储到 outputBuffer。