问题标签 [remoteio]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
31 浏览

core-audio - IOS:AudioUnit RemoteIO 采样率自动转换

我正在使用 RemoteIO 音频单元将音频输出到硬件。我的主要问题是我现在的音频处理只允许 44.1kHz 输出。我听说像 iPhone 11 这样的新 iPhone 以 48kHz 运行。这意味着我渲染的输出将与硬件配置不匹配。

这是我为 remoteIO 设置 ASBD 的方法。

我在这里看到您可以以某种方式配置 RemoteIO 以使用指定的采样率。我假设这意味着我可以以 44.1khz 运行我的应用程序,RemoteIO 将为我进行转换。

有没有办法将 RemoteIO 配置为在我渲染音频时使用固定的采样率,并在我使用的采样率与硬件采样率不匹配时让它进行采样率转换?

旁注:我的 IOS 模拟器正常运行在 44100 并且我没有 iPhone,所以我无法使用真实设备进行测试。

0 投票
0 回答
35 浏览

ios - iOS 15 beta RemoteIO 单元输出具有立体声方向的静音帧

有没有人尝试在 AVAudioSession 上设置立体声方向的 iOS 15 beta 3 上使用 RemoteIO 单元?它在 iOS 15 测试版上发出静音音频帧,但在 iOS 14 上运行良好。如果未启用立体声方向,它可以工作。这可以通过 Apple 在立体配置中运行以下示例代码来验证:

https://developer.apple.com/documentation/avfaudio/avaudiosession/capturing_stereo_audio_from_built-in_microphones

0 投票
1 回答
33 浏览

ios - 如何在 Swift 中连接多个 AudioUnit?

我目前有一个 RemoteIO 音频单元配置并工作,它只接受输入,并将其传递给输出,所以当我对着麦克风说话时,我可以通过 iPhone 的耳机听到自己的声音。

我想做的下一步是添加可选效果并创建一个链。我知道它AUGraph已被弃用,我需要用它kAudioUnitProperty_MakeConnection来将事物连接在一起,但我有几个关键问题,目前还无法输出音频。

首先:如果我想去 RemoteIO Input -> Reverb -> RemoteIO Output,我需要两个 RemoteIO Audio Unit 实例吗?或者我可以使用同一个吗?我猜只是一个,但是要将不同的东西连接到它的输入和输出范围,但我很难做到这一点。

其次:渲染回调如何发挥作用?我实现了一个渲染回调(AURenderCallbackStruct并将其设置为kAudioUnitProperty_SetRenderCallback我的 RemoteIO 音频单元上的属性,并且在回调的实现中,我这样做:

我需要一个渲染回调来完成这项工作吗?我需要两个,一个从 RemoteIO -> Reverb 渲染,另一个渲染回 Reverb -> RemoteIO?

CoreAudio 文档是出了名的粗略,但我很难找到任何关于如何做到这一点的最新信息,而没有AUGraph这些信息已被弃用。

任何建议都非常感谢!