问题标签 [audiounit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
macos - 如何在 Xcode 4.2 中创建没有模板的音频单元?
我刚刚安装了 Xcode 4.2,我正准备为 OSX Lion 启动一个新的 Audio Unit 乐器项目,但是在 Xcode 4.2 的 New Project 菜单中,不再有可供选择的 Audio Unit Template。
Apple 是否巧妙地告诉我们不要再开发 Audio Units 了,如果是的话,我们应该都改用 VST 吗?2011 年 10 月 12 日,Apple 更新了他们的 Audio Unit Component Services Reference,所以我认为情况并非如此,这就留下了一个问题:
我们如何在没有模板的情况下正确开发音频单元?
非常感谢任何反馈。
ios - iOS中的ADSR,示例代码?
我一直在寻找一些示例,这些示例展示了如何使用音频样本在 iOS 中执行ADSR(最好是带有循环点的 WAV 文件,但那是次要的)。我猜大多数编写采样器/合成器应用程序的人都会为此使用音频单元。有人知道在任何 iOS 音频库中显示 ADSR 的好代码示例吗?
ios5 - iOS5 中缺少立体声通道
刚刚更新到 iOS5 并注意到我们正在开发的应用程序在正确的通道中丢失了音频输出。由于不确定我们自己对音频单元组件的实现,我尝试运行 Apple 的 MixerHost 示例,显然也缺少正确的通道。
我相信这与最近在 iOS5 中对 CoreAudio 的更改有关(可能需要额外的单元或属性?)。希望有人能指出那是什么。谢谢您的帮助。
ios - AudioRingBuffer::GetTimeBounds 中的 EXC_BAD_ACCESS
好的,这是场景:我有一个使用 ExtAudioFileWriteAsync 针对 iOS 4.3 的实时录音应用程序。我第一次使用该应用程序录制时,它运行良好。如果我按停止,然后再次录制,则有一半的时间我会在录制开始时在 AudioRingBuffer::GetTimeBounds 中获得 EXC_BAD_ACCESS。
也就是说,ExtAudioFileWriteAsync 在开始第二次录制时在 GetTimeBounds 上失败。下面是录制开始时触发的一段代码,它创建了 ExtAudioFile 引用:
有没有人对可能导致这种情况的原因有任何想法?我假设,鉴于 EXC_BAD_ACCESS,这是内存泄漏或某些东西的引用计数被敲到零,但我无法终生弄清楚它可能是什么,而谷歌正在画一个完全空白。我在 Apple 开发论坛上为 CoreAudio 发布了同样的内容,但没有人同情我,甚至发表了一句精辟的评论。停!
编辑:发现问题。当 ExtAudioFileWriteAsync 在旧文件“优化”之前尝试写入新文件时发生错误。一点互斥爱解决了这个问题。
iphone - AudioUnits 和 MPMusicPlayerController
我的应用程序正在利用该AudioUnit
功能为节拍器应用程序产生短声。一切运行良好。
现在我想从设备上的 iTunes Lib 中播放 MP3,并使用MPMusicPlayerController
它。
直到这里没有问题,MP3 播放正常。但之后我再也不能调用我的AudioUnit
声音了。我调试了这么远,音频缓冲区的回调再也不会出现,所以我认为AUGraph
它已经停止,但它表明它仍在运行。
有人有想法吗?MPMusicPlayerController
刚刚停止了图表吗?以及如何防止这种情况?
感谢您的任何提示,安德烈亚斯
iphone - 如何用背景音乐录制音频?
从最近几天开始,我正在开发一个 iphone 应用程序,该应用程序需要记录用户音频并将其与背景音乐一起保存,简单来说,通过附加两个音频文件生成第三个音频文件,我尝试使用 AudioToolBox api 来完成但没有成功,任何人都可以建议我正确的方向去哪里寻求任何建议,???
谢谢,
macos - Mac OSX 10.7 Lion AUPinkNoise 无法编译
Apple 技术说明 TN2276 列出了对 Lion 的音频单元代码的更改。我成功地将更改应用到 FilterDemo 示例,并且编译正常。然后我对 AUPinkNoise 示例进行了同样的更改,但我得到一个链接器错误,显示未定义符号 _FilterFactory。我将 AUPinkNoise.cpp 中的代码从 COMPONENT_ENTRY(AUPinkNoise) 更改为 AUDIOCOMPONENT_ENTRY(AUBaseFactory, AUPinkNoise)
但这无济于事。作为核心音频的新手,我不知道如何解决这个问题。有任何想法吗?
ios - remoteIO 音频单元播放回调中的 AudioBufferList 内容
我想在发送到 iOS 设备扬声器的途中“拦截”音频数据。我相信这可以使用 remoteIO 音频单元和回调来完成。在下面的playbackCallback 中,ioData 实际上是否包含任何音频数据?
我很困惑,因为有关 ioData 的记录信息似乎暗示它包含音频数据......
但是,从 ioData 的内容创建一个 CMSampleBufferRef 并使用 AVAssetWriter 将其写入 CoreAudioFile 会产生一个静默文件。输出文件的长度看起来不错(几秒钟),但例如在 Audacity 中打开文件会显示一条扁平线。
在阅读了许多 SO 帖子并尝试了许多 remoteIO 音频单元示例代码之后,我开始怀疑上面的 ioData 是否包含应该在回放回调中填充的预先调整大小但为空的缓冲区。
macos - Mac OS X 中的音频捕获
我正在开发一个音频捕获应用程序。如何使用 Audio Unit API 在 Mac OS X 上使用 8 kHz 采样率和单通道捕获音频?
这是我尝试过的代码。
在这里,我无法将采样率和每个样本的位数从 32 更改为 16。请任何人帮助我做到这一点。
感谢和问候。
iphone - 使用 AudioUnit(s) 在 iPhone 上播放多个正弦波
我目前正在开发可以通过 iPhone 上的扬声器/耳机输出设定频率的正弦波的程序。
现在想输出多个正弦波,不知道哪种方式更好。我应该添加所有正弦波并使用一个 AudioUnit 播放它们,还是为每个正弦波创建 AudioUnit?
我目前倾向于第一个解决方案,但不知道为什么......这只是我的直觉。如果有人能向我解释为什么他们选择的解决方案更好,那就太好了:)
谢谢 !