问题标签 [accelerate-framework]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - 使用 LAPACK 求解 Ax=B,其中 x >= 0
我目前正在开发一个处理水中添加化学物质的 iOS 应用程序。为了找到尽可能少的加法,我正在求解 Ax=B,其中 A 是 6x6 矩阵,B 是一列。据我一直在阅读,加速框架中的 LAPACK 是处理此问题的最佳方法。我已经能够使用 DGESV_ 使它适用于小的添加,但较大的添加对 x 有一些负值。这是一个问题,因为您不能添加负量的化学物质。
所以我需要知道的是 LAPACK 中是否有一个函数可以让我找到 Ax=B 的最小解,其中 x 总是大于或等于 0?如果没有,是否有替代解决方案(除了自己做数学)?
谢谢
objective-c - 如何读取 novacaine 中的 VBR 音频(相对于 PCM)
novacaine的创建者提供了示例代码,其中从文件中读取音频数据并将其馈送到环形缓冲区。但是,当创建文件阅读器时,输出被强制为 PCM:
我正试图通过允许它为 novacaine 项目做出贡献
- 从 iPod 库中读取(只能通过 AVAssetReader 访问,而不是音频文件服务库)
- 读写 VBR 数据包而不是 PCM。
所以这就是我上面的等效功能的样子(见注:部分)
查看代码,似乎一切都是浮点数(音频缓冲区、输出格式等)。这有什么原因吗?(请记住,iOS 音频规范格式是 SInt16,而不是浮点数).. 例如在 Novocaine::renderCallback 函数中查看:
为了使该库与读写 VBR 数据兼容,我必须更改哪些内容?
一个
ios - ios基础图像处理提取红色通道
直截了当我需要从图像中提取颜色分量,通常在 Matlab 中,这是为红色选择第一个矩阵。
在加速框架领域,哪些文档是基于参考的,如果不解析图形上下文,我找不到一种简单的方法来做到这一点。
提前致谢!!
ios - 从录制的声音中消除已知音频以通过反卷积估计背景声级
我有 2 个信号,一个包含在扬声器上播放的音频数据。第二个包含同时记录扬声器的麦克风数据。
到目前为止我做了什么:通过相关在时域中对齐信号。对两个信号的重叠部分应用 fft 并将一个除以另一个以实现反卷积。
我做错了什么,因为生成的音频数据是无用的。
这是我的代码:
编辑澄清一下:感谢@Sammio2,我现在知道,反卷积很好地描述了我的问题:
f*g=h
h 是我录制的信号,包括
f,我希望恢复的信号和
g,我的播放信号还记录了我知道的,但很可能被扬声器->麦克风往返修改了
现在我需要任何方法来恢复除 g 之外记录的所有声音 f。
重要:最后我不需要一个清晰的 f 信号,只需要关于它的响度或存在水平的信息。基本上是除了记录的往返信号 g 之外的噪声水平。
我应该如何继续收集我想要的噪音水平信息?
我希望这有助于理解我的问题。到目前为止谢谢!
ios - 如何使用 vDSP_conv 来模拟 MATLAB 的 xcorr 函数?
我目前正在将 MATLAB 算法转换为 C,以便在 iOS 应用程序中使用它。
我一直在努力使用 MATLAB 的 xcorr 函数。这是相关的 MATLAB 代码。
这,根据 MATLAB 文档
返回滞后范围 [-maxlags:maxlags] 上的互相关序列。输出 c 的长度为 2*maxlags+1。
Apple Accelerate.Framework 提供了一个名为的卷积/相关函数vDSP_conv
,但我看不到如何使用它来产生与xcorr
. 这可能吗 ?如果是的话,任何人都可以帮助我。
最好的祝福,
阿卡乔
iphone - 如何检查 vDSP 函数是否在 neon 上运行标量或 SIMD
我目前正在使用 vDSP 框架中的一些函数,尤其是 vDSP_conv,我想知道是否有任何方法可以检查该函数是否调用标量模式或在霓虹处理器上处理 SIMD。
该函数的文档提到了一些必须满足或调用标量模式的 power-pc-architecture 标准。现在我既不知道这些标准是否也适用于 iphone,也不知道如何检查我的函数是否调用标量模式或在霓虹灯上正常运行。
有没有办法检查这个?
谢谢!
c++ - 如何在 i686-apple-darwin11-llvm-g++-4.2 中包含 Accelerate 框架?
我正在尝试在一个小型 C++ 程序上使用Accelerate 框架。我什至没有使用 XCode,只有一个简单的 Makefile。
当我在代码中添加以下行时,编译器会抱怨:
错误如下:
我正在使用的编译器是i686-apple-darwin11-llvm-g++-4.2,它是一个 gcc 4.2.1,我用来编译(而不是链接)的行是:
编译时我应该添加一些额外的标志吗?我尝试添加“-framework Accelerate”,但它并没有改变任何东西,因为这应该只包含在链接过程中(对吗?)。
我用谷歌搜索了其中一些错误消息,但没有找到任何东西。
我真的很感激任何帮助。谢谢!
PS:我的 OS X 版本是 Lion 10.7.5,XCode 是 4.4.1。
c++ - 不稳定的分析时序
我试图从 Accelerate Mac OS X 框架中获得 cblas_dgemm 函数在多次迭代中的平均 MFLOPS/S 速率。这是我正在使用的代码(它通过函数指针 afp 调用 cblas_dgemm):
定时器例程是:
该代码通常运行两个 1000x1000 矩阵的乘积。我的问题是这段代码的连续计时非常不可靠;即使外部循环中的时间限制增加到 5 秒,最终速率也会在 20000 到 30000 mflops/s 之间变化。我使用的是带有 OS X 10.8.2 的 2011 Macbook Pro,使用此内核扩展关闭了超线程的四核 i5,并且在我进行基准测试时除了终端之外没有运行任何应用程序。有人对如何获得更稳定的时间有任何建议吗?
iphone - 加速框架 iOS - FFT 输入
嗨,我必须为 wav 文件绘制频谱图。我正在使用AudioFileGetProperty
,我可以AudioData
使用 wav 文件检索
从另一个问题。
将在加速框架中使用 FFT。请让我知道如何获得频率。我不确定 FFT 的输入应该如何。我目前有SInt16
音频数据。
ios - 将 AVCaptureAudioDataOutput 数据传递到 vDSP / Accelerate.framework
我正在尝试创建一个对麦克风数据运行 FFT 的应用程序,因此我可以检查例如输入中最响亮的频率。
我看到有很多获取音频输入的方法(RemoteIO AudioUnit、AudioQueue 服务和 AVFoundation),但似乎 AVFoundation 是最简单的。我有这个设置:
(加上错误检查,为了便于阅读,此处省略)。
然后我实现以下AVCaptureAudioDataOutputSampleBufferDelegate方法:
我不确定下一步应该是什么。格式到底CMSampleBuffer
描述了什么(如果有的话,可以对它做出什么假设)?vDSP_fft_zrip
我应该如何以尽可能少的额外预处理来获取原始音频数据?(另外,你会建议做什么来验证我看到的原始数据是正确的?)