问题标签 [superpowered]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Android JNI 中的本机崩溃 SIGSEGV
signal 11 (SIGSEGV), code 1 (SEGV_MAPERR)
我的应用程序中随机出现本机崩溃。应用程序循环文件并在 C++ 代码中分析它们并返回一个浮点数组。这是在处理文件时运行一段时间的 AsyncTask 中完成的。我在导致崩溃的代码中做错了什么?还是超能力的问题?谢谢你。
这是 AsyncTask doInBackground 函数:
Java和C++代码之间的函数:
C++ 函数 getKey:
android-studio - 带有 Android Studio 的超强插件
我可以提供有关如何在 Android Studio 上安装超级插件的分步教程/说明吗?我是移动开发者世界的新手,我不知道如何去做。非常感谢,对我的英语感到抱歉。
ios - 使用 SuperPowered 库时如何在 iOS 中释放声音?
我们在用 Swift 编写的 iOS 应用程序中使用SuperPowered库,我们遇到了库没有释放声音的问题,我们找不到任何解决此问题的方法。
进入实例化 SuperPowered 对象并播放声音的视图时会出现问题。这是应用程序中唯一需要声明声音的地方。如果用户在应用程序的其他位置,则应该释放声音。问题是,如果我们导航到应用程序中的另一个位置并将我们的应用程序置于后台并打开另一个应用程序,如 Spotify(支持背景音乐),当切换回我们的应用程序时,声音(来自 Spotify)将停止。这里的问题是 SuperPowered 库不释放声音。由于我们的应用程序不是纯音乐应用程序,因此我们不想在我们的应用程序处于前台时阻止其他应用程序播放声音(仅当用户处于上述应该播放声音的视图中时)。
superpowered - 为音频添加空白噪声时间,超级强大
有什么办法可以在音频中添加一段空白噪音?
我想在音频的结尾和开头添加额外的时间,以便在开始和结束时不会突然发生
android - 如何使用 android 中的超级 SDK 将文件写入外部存储?
在使用超级强大的Android音频效果(如flunge,echo,reverb等)实现项目时,我能够通过本机进行录制并将文件写入外部存储,然后使用超级强大的交叉推子示例打开该文件并对其应用效果很好。
现在我需要使用应用效果将输出文件写入外部存储,但不知道如何执行此操作。有类似的 iOS 示例SuperpoweredOfflineProcessingExample,但我没有找到它的 Android 文件解决方案。任何帮助都将非常感谢制作带有效果的音频输出 wav 文件。
java - 如果已经存在大量 AssetFileDescriptor,显然在 Android 上创建 File 在本机端失败
出于基准测试的目的,我重复从资产加载数据并使用 Superpowered SDK 处理它。为了使用 Superpowered SDK 打开资产,我AssetFileDescripter afd
在 java 端创建了一个并使用 apk 的路径afd.getStartOffset()
和afd.getLength()
参数进行 JNI 调用。在这个 JNI 函数中,我使用 SuperpoweredDecoder 加载资产并创建一个新文件 ( /storage/emulated/0/result.wav
) 以保存结果。
问题是,当我AssetFileDescripter
在 java 端的每个基准迭代中创建一个新文件/storage/emulated/0/result.wav
时,使用 Superpowered SDK 创建文件在 971 次迭代后失败,或者大多数情况下是 995 次迭代。
如果我AssetFileDescripter
在所有迭代中只使用一个相同的,那么一切正常,我可以进行 1000 次或更多的基准迭代。有人有想法吗?(我的测试设备的android版本是4.4.2)
我会感谢所有提示。
ios - 通过 BPM 将音轨分割成片段,并使用 Superpowered iOS 分析每个片段
我一直在使用 Superpowered iOS 库来分析音频并提取 BPM、响度、音高数据。我正在开发一个 iOS Swift 3.0 项目,并且已经能够使用 ObjC 的 Bridging headers 让 C 类与 Swift 一起工作。
我遇到的问题是,虽然我可以创建一个解码器对象,从音乐库中提取音频并将其存储为 .WAV - 我无法仅为提取的音频片段创建解码器对象并获取分析器类返回数据。
我的方法是创建一个解码器对象,如下所示:
我认为“offsetBytes”和“LengthBytes”是音频文件中的位置。由于我已经解压缩了音频,将其存储为 WAV,然后将其提供给解码器,因此我正在使用 44100 x 2 x 16 / 8 = 176400 字节每秒的 PCM Wave 音频公式计算偏移量和长度。然后使用它来指定起点和长度(以字节为单位)。我不确定这是正确的方法,因为解码器将返回“未知文件格式”。
关于如何实现这个问题的标题的任何想法甚至替代建议?提前致谢!
android - 如何在 Superpower 中重用音频文件?
我正在使用 Superpowered SDK 构建 Android 数码钢琴。
我为每个音调使用SuperpoweredAdvancedAudioPlayer实例(例如 c 音调、d 音调、e 音调......)。
为了避免记忆,我想在 SuperpoweredAdvancedAudioPlayer 实例中重复使用音频样本(mp3 文件),并且 - 如有必要 - 将它们调低/调高半音(100 美分)。例如,“E 音”使用 mp3 样本作为“D 音”,并且只提高了 100 分。
如何实现 e 音的 SuperpoweredAdvancedAudioPlayer 实例使用与 d 音相同的音频对象?(我希望 d-tone.mp3 文件只在内存中分配一次)
谢谢!
当前实例化:
audio - Unity 中的超强音频引擎
谁能解释一下如何在 Unity 引擎中为 Android 和 iOS 项目使用 Superpowered 音频库?我找到了大量的材料,但没有关于如何在 Unity 中使用它。我查看了项目示例“SuperpoweredSpatializer/SuperpoweredUnity”,但使用了标准的 Unity 音频系统。如果我需要构建库,请将其放在某个地方,为什么我在文档中找不到任何信息如何做到这一点?抱歉,我是 Unity 初级开发人员,我花了一周时间试图了解它是如何工作的。请帮我!:)