问题标签 [snpe]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android 应用上的 Snapdragon 神经处理引擎 (SNPE) 和 Tiny Yolo
对于我的期末大学考试,我正在尝试将 SNPE 与 Tiny YOLO 一起用于 Android 应用程序中的实时对象检测。我成功地将模型转换为 DLC 格式,但我不明白如何准备输入张量以及如何处理输出张量。同一个人可以帮助我吗?谢谢。
deep-learning - 使用 SNPE 将 Caffe 模型转换为 dlc 的问题
我在使用 SNPE 将我的 caffe 模型转换为 dlc 时遇到问题。
特别是在“比例”层。
前两层如下
我收到以下错误:
tensorflow - 如何将“TF for Pots”教程中的classify_image_graph_def.pb转换为Qualcomm SNPE教程中的inception_v3_2016_08_28_frozen.pb
有谁知道,如何从谷歌的 tensorflow for poets 教程 转换分类图像图形def.pb: https ://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0
进入 高通在其 SNPE SNPE 教程中使用的 inception_v3_2016_08_28_frozen.pb : https ://developer.qualcomm.com/docs/snpe/tutorial_setup.html ?
当我重新训练classify_image_graph_def.pb时,将其冻结并将其用作Qualcomm SNPE 教程中的模型,然后该应用程序编译正常,但停止在我的Android 设备上运行。(运行时错误)
gpu - Qualcomm SNPE 可以在 linux 板上工作吗?
我希望让 qualcomm SNPE(金鱼草神经处理引擎)在我的 linux(不是 Android)板(flightPro w/qualcomm 820.)上工作。它在 cpu 上运行良好。
我已经成功地按照提供的示例将 alexnet 加载到我的 820 板上并在 cpu 模式下运行 snpe (snpe-net-run)。它不在 gpu 模式下运行。
搜索网络和论坛(例如,https ://developer.qualcomm.com/forum/qdn-forums/software/qualcomm-neural-processing-sdk/59207 )似乎所有(?)linux板都可能缺少opencl完成这项工作所需的驱动程序。
按照例子...
我希望 gpu 能够工作(希望交叉手指比 cpu 快得多!)
qualcomm - 为什么 SNPE SDK 很慢?
我在这里尝试了高通提供的示例:
https://github.com/globaledgesoft/deeplabv3-application-using-neural-processing-sdk
它说在 GPU16 上完成这段代码需要 31 毫秒:
对我来说,同样的例子需要 14 秒。我正在使用open-q 845 hdk 开发套件。
我问了我的教授,他说我正在安装的应用程序不受开发工具包固件的信任,这就是为什么我要花这么多时间来执行。他建议我将我的应用程序安装为系统应用程序来重建固件。还有什么其他原因?
python - SNPE - 如何预测具有两个(或更多)输入的模型?
我已经建立了一个带有两个输入的 Keras 模型,我想在我的手机上使用 SNPE 进行预测。我已经成功转换了它,这只是我现在遇到问题的 C++ 代码。我能够预测一个带有任何形状一维数组的输入的模型,但我现在有一个模型,它需要两个大小为 1 的一维数组。
所以在 Keras 中,预测是这样的:model.predict([np.array([.4]), np.array([.6])])
我必须预测的 SNPE 代码:
我正在使用的功能是从 SNPE 的网站修改的。它适用于我之前对单个数组进行预测的用途:
但我不知道如何将我已经使用的两个输入张量与executeNetwork
函数结合起来。任何帮助,将不胜感激。
tensorflow - 有没有办法在 SNPE (dlc) 中调整输入形状的大小?
我已经训练了一个基于 Tensorflow 的模型。该模型应该可以在手机上运行,但是在将冻结图(pb)转换为深度学习容器(dlc)时遇到了问题。我必须将输入大小设置为常数。这导致该模型无法使用任何输入大小。我正在尝试找到一种方法来调整 DLC 模型的输入形状的大小,而无需使用“snpe-tensorflow-to-dlc --input_dims 1,512,512,3”初始化模型,因为这种方式很消耗。实际上,我想在 dlc 模型中调整输入形状的大小。有谁能够帮我?
tensorflow - 无法在 TensorFlow 2.x 版的 GraphDef 中加载冻结模型 (.pb)
创建了一个简单的虚拟序列模型,
tf.keras
如下所示:训练模型并使用
tf.keras.models.saved_model
.获取
input
输入并output node names
使用saved_model_cli
.saved model
使用freeze_graph.py实用程序冻结。模型被冻结。
现在这是主要问题:
- 要加载冻结图,我使用了本指南Migrate tf1.x to tf2.x (
wrap_frozen_graph
) - 用过的
- 输出错误
ValueError: Input 1 of node StatefulPartitionedCall was passed float from dense_3/kernel:0 incompatible with expected resource.
将 .pb 转换为 .dlc (Qualcomm) 时出现同样的错误。实际上我想在高通的 Hexagon DSP 或 GPU 上运行原始模型。
vcf-variant-call-format - 如何在给定染色体编号和位置的情况下检索 SNP 的 rsID
要更新我的摘要统计文件的 SNP ID,我有一些问题:首先,我从摘要统计文件创建了一个文本文件,其中包含以下信息
我需要更新 rsID 以具有一致的格式(如您所见,有些具有 vh_.. 格式)。然后,我下载了 dbsnp vcf 并选择了以下列
我想知道如何合并列以更新第一个文本文件中的 rsID?2)我注意到第二列有不同的格式(染色体位置)。我不知道这是否会导致问题。如果是的话,我怎么能更新它。我感谢任何帮助
snpe - 高通 soc 820 是否支持 SNPE 的 DSP Runtime
我通过 commond 检查此 SoC 不支持 NPE
/snpe-platform-validator --runtime dsp
SNPE SDK 版本是 1.49.0,/vendor/lib/rfsa/adsp 只有这个库。
有什么解决办法吗?谢谢