问题标签 [onnxruntime]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
203 浏览

python - 来自 Azure 数据资源管理器的 Python 插件中的 onnxruntime 包安装失败

我想使用 Azure 数据资源管理器中的 python 插件安装 onnxruntime 包。我按照此站点https://docs.microsoft.com/en-us/azure/data-explorer/kusto/query/pythonplugin?pivots=azuredataexplorer的说明进行操作。

但是,我没有让它正常工作。它总是告诉我“ImportError:无法导入名称'get_all_providers'”

这是我在 Azure 数据资源管理器中的 kusto 声明:

这是我得到的错误声明:

如果有人知道问题可能是什么,我将不胜感激!

0 投票
1 回答
1463 浏览

onnx - onnxruntime:无法导入名称“get_all_providers”

尝试在 macOS 上使用 python 3.6.3 在 Jupiter notebook 中导入 onnxruntime。我在导入时收到以下错误:

我已经查看了诸如此类的类似问题, 没有找到适合我的答案。

有什么建议么?谢谢!!

0 投票
1 回答
2597 浏览

python - 从 ONNX 运行超分辨率模型时出错

测试超分辨率模型的 ONNX 模型,运行此示例程序时出错。

我的 ONNX 版本是 1.5.0,onnxruntime 是 1.4.0。Onnxruntime 是使用 pip 安装的。Pytorch 版本是 1.6.0

错误在ort_session = onnxruntime.InferenceSession('/home/itc/pytorch/sub_pixel_cnn_2016/model/super-resolution-10.onnx')

错误在于加载 onnx 模型。

我该如何解决这个错误?

0 投票
0 回答
69 浏览

xgboost - 无法使用 ONNX 运行时“set_base_margin”和“使用模型的 best_ntree_limit 预测”对 XGBoost 模型进行预测

我已经使用 onnxmltools 将 XGBoost 模型转换为 ONNX 模型。但是,当我尝试使用 ONNX 运行时执行预测时,我遇到了两个问题。

  1. 在 XGBoost API 中,DMatrix 有一个“set_base_margin”函数,它使用“base_margin”值初始化输出。在 ONNX 运行时,我找不到可以实现相同功能的函数。ONNX 运行时确实允许传入 NamedONNXValue 实例列表以接收预测输出,但该列表中的所有预填充值都将被忽略。
  2. 在 XGBoost API 中,“predict”函数有一个“ntree_limit”参数,该参数在 ONNX 运行时中不存在。

任何帮助将不胜感激。

0 投票
3 回答
14013 浏览

deep-learning - 如何在 GPU 上运行 ONNX 模型?

我正在尝试运行 ONNX 模型

这打印出来

如何让它在我的 GPU 上运行?我如何确认它正在工作?

0 投票
1 回答
621 浏览

python - 模块“onnxruntime”没有属性“OrtValue”

我是 python 和 onnxruntime 的新手。我已经成功地进行了推理。我目前正在尝试通过 IObinding 将推理实例定向到我系统上的特定 gpu。尝试创建 OrtValue 时收到以下错误:AttributeError:模块“onnxruntime”没有属性“OrtValue”。我还没有找到解决方案。希望有人能对此事有所了解。这是一些信息。

环境

错误代码:

0 投票
1 回答
704 浏览

asp.net-core - 如何为 Microsoft.ML.OnnxRuntime.DirectML(.net core 3.1)获取正确的 GPU 设备 ID?

我正在使用 Microsoft.ML.OnnxRuntime.DirectML nuget 包进行图像分类,如下所示:

而且我有一个大问题:在 IIS 中,集成显卡的 deviceId 为 0,离散显卡的 deviceId 为 1。但是当我的应用在 Kestrel 下运行时,集成显卡的 deviceId 为 1,离散显卡的 deviceId 为 0,这与任务管理器中显示的相反评分正在进行时的“GPU 引擎”列。

现在我的集成卡不能与这个包一起使用,因为它会抛出这个异常(无论如何这毫无意义):

所以我需要一种可靠的方法来检测离散显卡的 deviceId。

0 投票
1 回答
275 浏览

cntk - 在训练 ONNX 的预训练模型 Emotion FerPlus 时抛出异常 'cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED'

我正在测试训练Emotion FerPlus情感识别模型。训练有cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED错误。我正在使用Nvidia GPU TitanRTX 24G. 然后更改minibatch_size from 32 to 1. 但是还是有错误。我正在使用 CNTK-GPU 泊坞窗。完整的错误信息是

0 投票
1 回答
3321 浏览

python - 如何知道 Pytorch 模型的输入/输出层名称和大小?

我有 Pytorch model.pth 使用Detectron2 的COCO 对象检测基线预训练模型 R50-FPN。我正在尝试将.pth model to onnx.

我的代码如下。

转换ONNX模型是否正确?如果是正确的方法,如何知道 input_names 和 output_names?

使用 netron 查看输入和输出,但图表不显示输入/输出层。

0 投票
0 回答
142 浏览

java - 如何为单个浮点值创建 ONNXTensor?

我有以下java代码:

我想创建一个浮点值的 OnnxTensor。我收到以下异常: