问题标签 [juce]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - JUCE (C++) 中的视频播放器 - 在 iOS 上运行的 Windows 上构建
我想知道构建在 iOS 下运行的视频播放应用程序的最简单方法是什么。我正在使用JUCE 框架,它允许在 Windows 下使用例如 Visual Studio 和适用于 Android、iOS 等的代码程序进行开发。
我已经查看了 libVLC、FFMPEG 等。但我认为所有这些都是为了在 Linux 下开发的。
有人有一个简单的JUCE示例来构建在 Visual Studio 下工作的 iOS 播放器应用程序吗?
c++ - Juce中AudioSampleBuffer的延迟播放
我正在编写一个卷积混响插件,并想添加一个预延迟滑块。我在两个单独的缓冲区中有“干”信号和“湿”信号用于播放,如下面的代码所示:
dryBuffer 是干 AudioSampleBuffer,缓冲区是应用卷积的湿信号。如何延迟湿缓冲区的播放?
ios - ld: 找不到框架 AudioUnit,ios9
我正在尝试在 OSX El Capitan 上使用 XCode 7.2.1 编译我的 iOS 项目。我有一个使用 libVLC 的 XCode 项目。XCode 项目由 JUCE 创建。我已经从这里下载了一个“VLC for iOS”夜间版本,并将 MobileVLCKit.framework 添加到链接的框架中。
为了完整起见,我已将此框架添加到链接(按此顺序):
- MobileVLCKit.framework
- AudioUnit.framework
- AVFoundation.framework
XCode 链接器抱怨缺少框架,其中包括:
ld: 找不到框架 AudioUnit
clang:错误:链接器命令失败,退出代码为 1(使用 -v 查看调用)
这是我的 XCode 调用:
ld build/Debug/Video.app/Video normal i386 cd /Users/christoph/Desktop/Video/Builds/iOS export IPHONEOS_DEPLOYMENT_TARGET=9.2 export PATH="/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/开发者/usr/bin:/Applications/Xcode.app/Contents/Developer/usr/bin:/usr/local/bin:/usr/bin:/bin:/usr/sbin:/sbin" /Applications/Xcode.app /Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin/clang++ -arch i386 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator.platform/Developer/SDKs/iPhoneSimulator9.2.sdk -L/用户/christoph/Desktop/Video/Builds/iOS/build/Debug -F/Users/christoph/Desktop/Video/Builds/iOS/build/Debug -F/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneSimulator。平台/开发者/SDKs/iPhoneSimulator9.2。sdk/系统/库/PrivateFrameworks -F/Users/christoph/Downloads -filelist /Users/christoph/Library/Developer/Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video.build/ Objects-normal/i386/Video.LinkFileList -mios-simulator-version-min=9.2 -Xlinker -objc_abi_version -Xlinker 2 -fobjc-link-runtime -framework AudioUnit -framework AVFoundation /Users/christoph/Downloads/MobileVLCKit-binary/MobileVLCKit .framework/MobileVLCKit -Xlinker -dependency_info -Xlinker /Users/christoph/Library/Developer/Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video.build/Objects-normal/i386/Video_dependency_info .dat -o /Users/christoph/Desktop/Video/Builds/iOS/build/Debug/Video.app/Video应用/视频应用/视频build/Debug-iphonesimulator/Video.build/Objects-normal/i386/Video.LinkFileList -mios-simulator-version-min=9.2 -Xlinker -objc_abi_version -Xlinker 2 -fobjc-link-runtime -framework AudioUnit -framework AVFoundation /Users /christoph/Downloads/MobileVLCKit-binary/MobileVLCKit.framework/MobileVLCKit -Xlinker -dependency_info -Xlinker /Users/christoph/Library/Developer/Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video .build/Objects-normal/i386/Video_dependency_info.dat -o /Users/christoph/Desktop/Video/Builds/iOS/build/Debug/Video.app/Videobuild/Debug-iphonesimulator/Video.build/Objects-normal/i386/Video.LinkFileList -mios-simulator-version-min=9.2 -Xlinker -objc_abi_version -Xlinker 2 -fobjc-link-runtime -framework AudioUnit -framework AVFoundation /Users /christoph/Downloads/MobileVLCKit-binary/MobileVLCKit.framework/MobileVLCKit -Xlinker -dependency_info -Xlinker /Users/christoph/Library/Developer/Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video .build/Objects-normal/i386/Video_dependency_info.dat -o /Users/christoph/Desktop/Video/Builds/iOS/build/Debug/Video.app/Video2 -Xlinker -objc_abi_version -Xlinker 2 -fobjc-link-runtime -framework AudioUnit -framework AVFoundation /Users/christoph/Downloads/MobileVLCKit-binary/MobileVLCKit.framework/MobileVLCKit -Xlinker -dependency_info -Xlinker /Users/christoph/Library/Developer /Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video.build/Objects-normal/i386/Video_dependency_info.dat -o /Users/christoph/Desktop/Video/Builds/iOS/build /Debug/Video.app/视频2 -Xlinker -objc_abi_version -Xlinker 2 -fobjc-link-runtime -framework AudioUnit -framework AVFoundation /Users/christoph/Downloads/MobileVLCKit-binary/MobileVLCKit.framework/MobileVLCKit -Xlinker -dependency_info -Xlinker /Users/christoph/Library/Developer /Xcode/DerivedData/Video-dmlikbmjwevxfmgmwzysjxijcuhs/Build/Intermediates/Video.build/Debug-iphonesimulator/Video.build/Objects-normal/i386/Video_dependency_info.dat -o /Users/christoph/Desktop/Video/Builds/iOS/build /Debug/Video.app/视频
我不明白的是..我在“构建阶段”->“将二进制文件与库链接”下添加了框架“AudioUnit.framwork”
目标是iOS。
一些帮助会非常好!
java - VST 仪器中的“程序”是什么?
我最近开始使用 jvstwrapper 和 juce 框架。VST SDK 似乎对您的仪器有一些不同“程序”的概念。例如 jvstwrapper 和 juce 都有你继承的类来创建你的乐器。这些类需要实现许多方法。在这两种情况下,(在 VST SDK 中有详细说明),您必须实现方法“setProgram”、“getProgramName”、“setProgramName”、“getNumPrograms”等。我知道每个程序似乎都包含一堆仪器设置。但是在什么情况下它们实际上被使用了?再加上应该有多少?
c++ - 与 OsX 相比,Windows 上的 GUI 加载问题
我使用 Juce C++ 4.0.2 构建了一个 GUI 相对较重的音频插件。在像 OsX 上的 reaper 一样的 DAW 上加载 GUI 需要 5 秒,但在使用相同 DAW 的 Windows 上需要 10 倍以上。
我最终发现是因为 Typeface::createSystemTypefaceFor 函数在 Windows 上需要 100 毫秒。这是我这边的一个问题,因为我多次使用它。
有没有人面临同样的问题?
ios - 在 iOS 上使用 JUCE ::paint
我有一些使用 JUCE 的代码,它在被覆盖的:paint(Graphics& g)
函数中呈现图形。
如何在 iOS 上集成它以便在屏幕上绘制?
它可以连接到 GLKitView 吗?这还需要吗?
ios - JUCE iOS 构建没有目标
我有 VST 插件的代码,需要将其中的一部分移植到 iOS 应用程序中。
我已经尝试构建 OSX 版本并使用lib.a
它,但它不起作用。当我打开它的 iOS 版本时,Xcode 显示它缺少 tagret。
如果我使用所有 JUCE 模块将代码直接复制到 Xcode 中,并设置标头搜索路径,则会出现编译错误,例如no such type for String
在最新的 JUCE 更新之后,Xcode 会给出相同的错误,直到我更新 JUCE 文件本身,所以我认为新版本的 JUCE 构建设置或配置正在做一些不同的事情。如何将此代码放入不同的 Xcode 项目中,以便我可以使用它?
我可以将它编译为库并通过标头使用对象吗?
libusb - 从源代码构建 libusb 的 JUCE 项目
我希望创建一个使用libusb的 JUCE 项目。
我可以libusb
使用 ProJucer 编译和添加它。我想我还必须包括libusb.h
. 我希望我们能做到这一点。
但是,如果包含libusb
源代码会非常好,这样任何使用我的代码的人都不需要额外的编译.lib
和摆弄 JUCE 的构建设置的步骤。
所以在文件选项卡中我right click the root project folder -> "add existing files"
并选择/PathTo/MyProj/libusb/libusb/
但是在 Xcode 中打开它,有几个文件报告:
即使禁用非 OSX.c
文件,/libusb/libusb/os/
也有几个.c
文件/libusb/libusb/
需要这个config.h
.
谷歌搜索,这似乎需要/ hello it hello yeah sure Shona I'm great yeah we can go outside I guess really nice okay great and if it ever is three of them and please split over two days and it's too much of my voice Is any problem my voice is the week okay great so when when would you like me to come round okay 3 o'clock I can do integrity by.configure
运行一个脚本。
这变得有点尴尬。我想从现在开始我只是要编译 .lib 并完成它。
但是有没有集成解决方案的可能性?
我想libusb
团队可以制作libusb
更适合多平台的放置,例如/os/windows*.c
里面的内容,#ifdef MSVC_BLAH ... #endif
这样整个东西就可以在每个平台上编译,而无需事先摆弄。
c++ - VST 音频输入值与 Matlab 中的完全不同
抱歉,如果这听起来像一个愚蠢的问题,我对 VST 开发还比较陌生。我正在尝试使用 JUCE 框架构建插件,目前正在尝试使用正弦波 .wav 文件对其进行测试。当我在 Audacity 中打开 .wav 文件时,它告诉我它是 44100Hz 并且是 32 位浮点数。当我将同一个文件加载到 matlab 中时,前三个样本类似于 0.00、0.0443、0.0884... 但是,当我将同一个文件放入 Ableton 和 Reaper 并尝试单步执行代码时,我发现前三个样本同一个文件是 0.00000000、0.00012068315、0.00048156900... 当我在 VS 中进入内存并以 32 位浮点视图查看它时,我看到了这一点。为什么我的样本值这么小?
我的问题是我需要音频具有与 Matlab 中相同的样本值,我的算法才能工作。显然,发生了我无法控制的转换。任何人都可以阐明这个问题以及我应该如何解决它。看起来可能是一个缩放问题。Ableton 正在 32 位模式下运行,而我的 VST 正在编译为 32 位。
如果有帮助,我还可以提供更多样品。
谢谢
vst - 从 JUCE 音频 VST 插件控制主机播放
我正在尝试从使用 JUCE 构建的 VST 插件中找到一种方法来控制 VST 主机的播放位置/速度。
我不确定这是否可能。
我在setPlayHead
上找到了一个功能AudioProcessor
,我想这可能就是我要找的。
https://www.juce.com/doc/classAudioProcessor#a9015f8476c07b173e3c9919b3036339d
但是在setPlayHead
我正在阅读的文档中:
所以谁能告诉我这是否应该意味着在 AudioProcessor 上设置的新 AudioPlayHead 将用于主机播放(zb Cubase),或者这是否意味着只有我的 VST 插件的 AudioProcessor 将使用这个 AudioPlayHead,并且主机的 AudioPlayHead 不受影响)
感谢您对此的任何帮助/输入。