问题标签 [audiokit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - AudioKit:处理 iPhone 麦克风输入并将处理后的输出作为麦克风输入提供给 VOIP 框架使用
首先,向 Aure 致敬,感谢他在创建这个框架方面所做的令人印象深刻的工作!
我的挑战是:我已经成功地使用 AKMicrophone 抓取了我 iPhone 的麦克风输入,并使用 AKPitchshifter 滤波器和 AKMixer 对其进行处理,这样我就可以听到耳机中的移调输出。这是代码(processMic() 用于测试目的,通过我的 UI 中的按钮点击调用):
我现在希望处理后的输出成为我正在使用的 VOIP 框架的麦克风源。这可能吗?感谢所有帮助。
谢谢!
ios - AudioKit 崩溃
我正在尝试创建一个应用程序:
- 记录我的麦克风并将输出保存到文件中
- 播放最后录制的文件
- 播放应使用音高移位等效果进行操作
到目前为止,我已经 1+2 下降了,但是当我尝试将 AudioKit.output 分配给我的 timePitch(或 PitchShifter)时,我得到了一个异常(见下文)。谁能帮我吗?似乎如果我将输出设置为播放器以外的任何其他内容,它就会崩溃..
免责声明:我是 Swift 新手,所以请放轻松,原谅我的糟糕代码
源代码:
}
ios - 自定义 CAInterAppAudioTransportView
我一直在尝试自定义 CAInterAppAudioTransportView,但没有成功。我无法更改按钮之间的间距,也无法更改计时器的位置。
有人知道这种定制是否可行吗?
ios - AudioKit 为设备编译,而不是为模拟器编译
我遇到了 AudioKit 4.0(今天的版本)无法在模拟器上编译的问题。它为设备编译得很好。
我得到的错误是:
我怀疑我的项目设置有问题,但它们看起来与 AK 示例相同。
我在运行 10.13.2 Beta (17C67b) 的 MBP 上运行 Xcode 9.2 b2。
更新
我在另一台计算机上构建了一个新系统。这是运行 GM 10.13.1 和 GM Xcode 9.1。
然而,源(我的应用程序)在 iCloud 文档中。
我重新下载了 Audiokit 和 AudiokitUI,但得到的结果与昨天相同。
我确实注意到有两个警告:“ Umbrella header for AK4ParamRampBase.hpp not found
”和相同的AK4LinearParamRamp.hpp
我还可以尝试哪些其他事情?
ios - 使用 AudioKit 在 iOS 中绘制 MIDI 事件
我想创建一个 MIDI 文件的图形表示。我在我的应用程序中使用 AudioKit 来满足我的音频处理需求。
我正在使用 AKSequencer 加载 MIDI,并使用 AKMIDISampler 将 WAV 文件添加到序列中。
有没有办法像 GarageBand 中的视图那样使用 AudioKit 以图形表示形式查看音符?
WAV 部分对此并不重要。我只是希望能够绘制 MIDI 文件的内容。
谢谢!
ios - Module compiled with Swift 4.0 cannot be imported in Swift 3.2.2: AudioKit
I have just updated xCode to the latest version, and am getting the error when trying to build.
"Module compiled with Swift 4.0 cannot be imported in Swift 3.2.2: /Users/james/Documents/MyApp/Pods/AudioKit/iOS/AudioKit.framework/Modules/AudioKit.swiftmodule/x86_64.swiftmodule"
It was working before I upgraded the latest xCode.
audiokit - AudioKit 4+ 是否支持带有 Objective C 的 AKFrequencyTracker?
我正在尝试将 AudioKit 4.0.3(最新)合并到用 Objective C 编写的现有 iOS ViewController 中。我在初始化和使用 AKFrequencyTracker 类时遇到问题,即使其他类工作正常(例如 AKOscillator 和 AKMicrophone)。
我在随附的 Objective C 示例中的 ViewController viewDidLoad 方法中添加了以下代码:
但是我在 Xcode 中最后一行的旁边看到“没有可见的 @interface for 'AKFrequencyTracker'”错误。
AKFrequencyTracker 似乎没有任何初始化方法。任何帮助将不胜感激!
signal-processing - AudioKit 中的多输出路由
我想开发一个 iOS 应用程序来生成触发器和控制信号来控制外部硬件。出于这个原因,我正在考虑使用 AudioKit 框架来生成这些信号并将它们路由到特定的输出通道(大于 2)。我也尝试了 Juce,它让我在处理缓冲区并将它们附加到输出通道方面更加灵活。对我来说,完美的设置是用 C++ 编写 DSP 代码,用 Swift 编写 UI 代码。
是否可以使用 AudioKit 来完成,或者我应该使用 Juce / Core Audio 应用程序?在 AudioKit 中执行此操作的任何参考都将受到高度赞赏。
ios - Audiokit MIDI 初始化令人困惑
CoreMIDI 术语已经非常令人困惑并且文档记录很差,而且 Audiokit 并没有像我希望的那样提供帮助。
据我所知,每个应用程序都应该有一个 midi 客户端引用 ( MIDIClientRef
) 实例。Audiokit 具有AKMIDI
为每个实例创建一个新的客户端引用的类,并且AKMIDI
实例被创建为左、右和中心(包括每个实例的初始化)。所有这些还在其内置构造函数中创建具有硬编码名称的端点,所以我不明白我应该如何制作具有正确名称的端点。AKMIDIInstrument
AKCallbackInstrument
AKMIDISampler
最高价格为AKMIDISampler
,其来源首先说:
然后在以下几行:
(注意它在init函数中)
我会非常高兴听到一些关于一般使用指南的澄清(我需要覆盖所有内容吗?)或者更详细地解释这一点的文档/文章的链接。
xcode - XCode 无法识别引用的 AudioKit 框架
当我创建一个引用(而不是 CocoaPods 等)AudioKit 框架之一的新 XCode 项目时,XCode 不会自动完成 AudioKit 声明并显式声明 AudioKit 对象(例如 AKMIDISampler)会导致构建错误:“AKMIDISampler”是不可用:找不到此类的 Swift 声明。
通常问题在于在 XCode 中正确输入框架搜索路径。然而,即使我为我的目标和项目都设置了一个框架的相对路径,我仍然得到相同的结果。
这很可能是所有 3rd 方框架的问题,但我在这里参考 AudioKit 提出这个问题,因为我之前在 Google 的 AudioKit 支持小组中看到过这个问题。
设置新项目以使用 AudioKit 以便识别 AudioKit 并自动完成工作的最佳实践是什么?