问题标签 [onnxruntime]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 来自 Azure 数据资源管理器的 Python 插件中的 onnxruntime 包安装失败
我想使用 Azure 数据资源管理器中的 python 插件安装 onnxruntime 包。我按照此站点https://docs.microsoft.com/en-us/azure/data-explorer/kusto/query/pythonplugin?pivots=azuredataexplorer的说明进行操作。
但是,我没有让它正常工作。它总是告诉我“ImportError:无法导入名称'get_all_providers'”
这是我在 Azure 数据资源管理器中的 kusto 声明:
这是我得到的错误声明:
如果有人知道问题可能是什么,我将不胜感激!
onnx - onnxruntime:无法导入名称“get_all_providers”
尝试在 macOS 上使用 python 3.6.3 在 Jupiter notebook 中导入 onnxruntime。我在导入时收到以下错误:
我已经查看了诸如此类的类似问题,但 没有找到适合我的答案。
有什么建议么?谢谢!!
python - 从 ONNX 运行超分辨率模型时出错
我的 ONNX 版本是 1.5.0,onnxruntime 是 1.4.0。Onnxruntime 是使用 pip 安装的。Pytorch 版本是 1.6.0
错误在ort_session = onnxruntime.InferenceSession('/home/itc/pytorch/sub_pixel_cnn_2016/model/super-resolution-10.onnx')
错误在于加载 onnx 模型。
我该如何解决这个错误?
xgboost - 无法使用 ONNX 运行时“set_base_margin”和“使用模型的 best_ntree_limit 预测”对 XGBoost 模型进行预测
我已经使用 onnxmltools 将 XGBoost 模型转换为 ONNX 模型。但是,当我尝试使用 ONNX 运行时执行预测时,我遇到了两个问题。
- 在 XGBoost API 中,DMatrix 有一个“set_base_margin”函数,它使用“base_margin”值初始化输出。在 ONNX 运行时,我找不到可以实现相同功能的函数。ONNX 运行时确实允许传入 NamedONNXValue 实例列表以接收预测输出,但该列表中的所有预填充值都将被忽略。
- 在 XGBoost API 中,“predict”函数有一个“ntree_limit”参数,该参数在 ONNX 运行时中不存在。
任何帮助将不胜感激。
deep-learning - 如何在 GPU 上运行 ONNX 模型?
我正在尝试运行 ONNX 模型
这打印出来
如何让它在我的 GPU 上运行?我如何确认它正在工作?
python - 模块“onnxruntime”没有属性“OrtValue”
我是 python 和 onnxruntime 的新手。我已经成功地进行了推理。我目前正在尝试通过 IObinding 将推理实例定向到我系统上的特定 gpu。尝试创建 OrtValue 时收到以下错误:AttributeError:模块“onnxruntime”没有属性“OrtValue”。我还没有找到解决方案。希望有人能对此事有所了解。这是一些信息。
环境
错误代码:
asp.net-core - 如何为 Microsoft.ML.OnnxRuntime.DirectML(.net core 3.1)获取正确的 GPU 设备 ID?
我正在使用 Microsoft.ML.OnnxRuntime.DirectML nuget 包进行图像分类,如下所示:
而且我有一个大问题:在 IIS 中,集成显卡的 deviceId 为 0,离散显卡的 deviceId 为 1。但是当我的应用在 Kestrel 下运行时,集成显卡的 deviceId 为 1,离散显卡的 deviceId 为 0,这与任务管理器中显示的相反评分正在进行时的“GPU 引擎”列。
现在我的集成卡不能与这个包一起使用,因为它会抛出这个异常(无论如何这毫无意义):
所以我需要一种可靠的方法来检测离散显卡的 deviceId。
cntk - 在训练 ONNX 的预训练模型 Emotion FerPlus 时抛出异常 'cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED'
我正在测试训练Emotion FerPlus
情感识别模型。训练有cuDNN failure 8: CUDNN_STATUS_EXECUTION_FAILED
错误。我正在使用Nvidia GPU TitanRTX 24G
. 然后更改minibatch_size from 32 to 1
. 但是还是有错误。我正在使用 CNTK-GPU 泊坞窗。完整的错误信息是
python - 如何知道 Pytorch 模型的输入/输出层名称和大小?
我有 Pytorch model.pth 使用Detectron2 的COCO 对象检测基线预训练模型 R50-FPN。我正在尝试将.pth model to onnx
.
我的代码如下。
转换ONNX模型是否正确?如果是正确的方法,如何知道 input_names 和 output_names?
使用 netron 查看输入和输出,但图表不显示输入/输出层。
java - 如何为单个浮点值创建 ONNXTensor?
我有以下java代码:
我想创建一个浮点值的 OnnxTensor。我收到以下异常: