问题标签 [snpe]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
829 浏览

android - Android 应用上的 Snapdragon 神经处理引擎 (SNPE) 和 Tiny Yolo

对于我的期末大学考试,我正在尝试将 SNPE 与 Tiny YOLO 一起用于 Android 应用程序中的实时对象检测。我成功地将模型转换为 DLC 格式,但我不明白如何准备输入张量以及如何处理输出张量。同一个人可以帮助我吗?谢谢。

0 投票
1 回答
449 浏览

deep-learning - 使用 SNPE 将 Caffe 模型转换为 dlc 的问题

我在使用 SNPE 将我的 caffe 模型转换为 dlc 时遇到问题。

特别是在“比例”层。

前两层如下

我收到以下错误:

0 投票
0 回答
227 浏览

tensorflow - 如何将“TF for Pots”教程中的classify_image_graph_def.pb转换为Qualcomm SNPE教程中的inception_v3_2016_08_28_frozen.pb

有谁知道,如何从谷歌的 tensorflow for poets 教程 转换分类图像图形def.pb: https ://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0

进入 高通在其 SNPE SNPE 教程中使用的 inception_v3_2016_08_28_frozen.pb : https ://developer.qualcomm.com/docs/snpe/tutorial_setup.html ?

当我重新训练classify_image_graph_def.pb时,将其冻结并将其用作Qualcomm SNPE 教程中的模型,然后该应用程序编译正常,但停止在我的Android 设备上运行。(运行时错误)

0 投票
1 回答
868 浏览

gpu - Qualcomm SNPE 可以在 linux 板上工作吗?

我希望让 qualcomm SNPE(金鱼草神经处理引擎)在我的 linux(不是 Android)板(flightPro w/qualcomm 820.)上工作。它在 cpu 上运行良好。

我已经成功地按照提供的示例将 alexnet 加载到我的 820 板上并在 cpu 模式下运行 snpe (snpe-net-run)。它不在 gpu 模式下运行。

搜索网络和论坛(例如,https ://developer.qualcomm.com/forum/qdn-forums/software/qualcomm-neural-processing-sdk/59207 )似乎所有(?)linux板都可能缺少opencl完成这项工作所需的驱动程序。

按照例子...

我希望 gpu 能够工作(希望交叉手指比 cpu 快得多!)

0 投票
1 回答
902 浏览

qualcomm - 为什么 SNPE SDK 很慢?

我在这里尝试了高通提供的示例:

https://github.com/globaledgesoft/deeplabv3-application-using-neural-processing-sdk

https://github.com/globaledgesoft/deeplabv3-application-using-neural-processing-sdk/blob/master/AndroidApplication/app/src/main/java/com/qdn/segmentation/tasks/SegmentImageTask.java

它说在 GPU16 上完成这段代码需要 31 毫秒:

对我来说,同样的例子需要 14 秒。我正在使用open-q 845 hdk 开发套件。

我问了我的教授,他说我正在安装的应用程序不受开发工具包固件的信任,这就是为什么我要花这么多时间来执行。他建议我将我的应用程序安装为系统应用程序来重建固件。还有什么其他原因?

0 投票
1 回答
454 浏览

python - SNPE - 如何预测具有两个(或更多)输入的模型?

我已经建立了一个带有两个输入的 Keras 模型,我想在我的手机上使用 SNPE 进行预测。我已经成功转换了它,这只是我现在遇到问题的 C++ 代码。我能够预测一个带有任何形状一维数组的输入的模型,但我现在有一个模型,它需要两个大小为 1 的一维数组。

所以在 Keras 中,预测是这样的:model.predict([np.array([.4]), np.array([.6])])

我必须预测的 SNPE 代码:

我正在使用的功能是从 SNPE 的网站修改的。它适用于我之前对单个数组进行预测的用途:

但我不知道如何将我已经使用的两个输入张量与executeNetwork函数结合起来。任何帮助,将不胜感激。

0 投票
1 回答
317 浏览

tensorflow - 有没有办法在 SNPE (dlc) 中调整输入形状的大小?

我已经训练了一个基于 Tensorflow 的模型。该模型应该可以在手机上运行,​​但是在将冻结图(pb)转换为深度学习容器(dlc)时遇到了问题。我必须将输入大小设置为常数。这导致该模型无法使用任何输入大小。我正在尝试找到一种方法来调整 DLC 模型的输入形状的大小,而无需使用“snpe-tensorflow-to-dlc --input_dims 1,512,512,3”初始化模型,因为这种方式很消耗。实际上,我想在 dlc 模型中调整输入形状的大小。有谁能够帮我?

0 投票
0 回答
807 浏览

tensorflow - 无法在 TensorFlow 2.x 版的 GraphDef 中加载冻结模型 (.pb)

  1. 创建了一个简单的虚拟序列模型,tf.keras如下所示:

  2. 训练模型并使用tf.keras.models.saved_model.

  3. 获取input输入并output node names使用saved_model_cli.

    在此处输入图像描述

  4. saved model使用freeze_graph.py实用程序冻结

    模型被冻结。

现在这是主要问题:

  1. 要加载冻结图,我使用了本指南Migrate tf1.x to tf2.x ( wrap_frozen_graph)
  2. 用过的
  3. 输出错误 ValueError: Input 1 of node StatefulPartitionedCall was passed float from dense_3/kernel:0 incompatible with expected resource.

将 .pb 转换为 .dlc (Qualcomm) 时出现同样的错误。实际上我想在高通的 Hexagon DSP 或 GPU 上运行原始模型。

0 投票
0 回答
126 浏览

vcf-variant-call-format - 如何在给定染色体编号和位置的情况下检索 SNP 的 rsID

要更新我的摘要统计文件的 SNP ID,我有一些问题:首先,我从摘要统计文件创建了一个文本文件,其中包含以下信息

我需要更新 rsID 以具有一致的格式(如您所见,有些具有 vh_.. 格式)。然后,我下载了 dbsnp vcf 并选择了以下列

我想知道如何合并列以更新第一个文本文件中的 rsID?2)我注意到第二列有不同的格式(染色体位置)。我不知道这是否会导致问题。如果是的话,我怎么能更新它。我感谢任何帮助

0 投票
0 回答
88 浏览

snpe - 高通 soc 820 是否支持 SNPE 的 DSP Runtime

我通过 commond 检查此 SoC 不支持 NPE /snpe-platform-validator --runtime dsp

SNPE SDK 版本是 1.49.0,/vendor/lib/rfsa/adsp 只有这个库。

有什么解决办法吗?谢谢