问题标签 [onnxruntime]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
windows-runtime - Inference of onnx model (opset11) in Windows 10 c++?
In order to use my custom TF model through WinML, I converted it to onnx using the tf2onnx converter. The conversion finally worked using opset 11. Unfortunately I cannot load the model in the WinRT c++ library, therefore I am confused about the opset support: According to the Release Notes, the latest WinML release in May supports opset 11. I updated my VS2019 and downloaded the latest Windows 10 SDK, does the c++ API already include the latest onnx support? Or is there any alternative way to use my model in WinML c++?
python - 成功将 Midas 模型转换为 ONNX 后的 Onnxruntime 测试错误
最后,我问我的第一个问题。过去几天我一直在为此苦苦挣扎,在这里找不到同样的问题。
我使用以下代码将此预训练模型转换为 ONNX:
我用 Netron 打开了 midas.onnx,它看起来不错。然后我尝试使用 onnxruntime 对其进行测试:
但是,我得到了这个错误:
有关更多信息,我使用 Pytorch (1.3.1)、ONNX (1.7.0) 和 Onnxruntime (1.3.0)
我真的很感激任何帮助。
c# - 从 C# 中的 onnx 模型读取自定义元数据
在我的 C# 应用程序中创建 InferenceSession 时,我想从 .onnx 模型访问自定义元数据。
我在 python 中使用元数据填充模型:
尝试在 C# 中加载模型时:
我想在应用程序中显示模型版本、模型类型和其他属性。还有另一种方法可以做到这一点吗?
我在 C# 应用程序中使用 Microsoft.ML.OnnxRuntime v1.4.0 NuGet 包。python中onnxmltools的版本是1.6.1
对任何帮助感到高兴!
干杯
丹尼尔
xgboost - 具有多种输入类型的 Onnx 模型转换
我知道没有多少专家可以帮助解决这个问题,但我们在尝试将 XGBoost ML 模型转换为 ONNX ML 模型时遇到了一些麻烦。
当使用单一输入类型进行转换时,一切似乎都很好,但是当使用多种类型时。
我收到一个错误,提示只有一个输入类型。
您是否有一个示例(python 语句),其中使用 onnxmltools(具有多个 TensorTypes)转换 xgboost/another 模型。
例如:
上面的语句产生错误 有没有人有一个关于如何处理多种输入类型的例子?
python - 为什么我不能通过 pytorch 使用 ONNX 运行时训练?
当我跑
from onnxruntime.capi.ort_trainer import ORTTrainer
如https://github.com/microsoft/onnxruntime/#training-start所述,我收到此错误:
ModuleNotFoundError: No module named 'onnxruntime.capi.ort_trainer'
我能做些什么来解决这个问题?我通过 pip 安装了 onnxruntime,但我什至在 [python path]/site_packages/onnx-runtime/capi 中找不到“ort_trainer.py”
python - 转换后的 ONNX 模型在 CPU 上运行,但不在 GPU 上
我使用以下命令将 TensorFlow 模型转换为 ONNX:
python -m tf2onnx.convert --saved-model tensorflow-model-path --opset 10 --output model.onnx
转换成功,我可以在安装onnxruntime
.
但是当我创建一个新环境,onnxruntime-gpu
在其上安装并使用 GPU 进行推理时,我会根据模型收到不同的错误消息。例如我收到的 MobileNetW:onnxruntime:Default, cuda_execution_provider.cc:1498 GetCapability] CUDA kernel not supported. Fallback to CPU execution provider for Op type: Conv node name: StatefulPartitionedCall/mobilenetv2_1.00_224/Conv1/Conv2D
我尝试了不同的opsets。有人知道为什么我在 GPU 上运行时会出错
c++ - 在 Ubuntu 20.04 (C++ API) 上设置 ONNX 运行时
我目前正在尝试让我的图像处理程序在 Ubuntu(来自 Windows)上运行。
我已成功构建并链接 OpenCV 和 Boost 库以与我的 cpp 程序一起使用,但我还没有找到任何关于在 Ubuntu 20.04 上设置 Onnx Runtime C++ 的说明,除了将以下命令与 NuGet 包管理器一起用于特定的 Visual Studio项目:
在 Windows 上,我只需要使用 NuGet 包管理器来下载给定 Visual Studio 项目的库。在 Ubuntu 上使用 NuGet 似乎可以做到这一点,但我想知道我是否可以像 boost 和 OpenCV 构建和安装那样更“手动”地做到这一点。谢谢!
python - Onnx 运行时错误“SVC 转换器不支持不同于前 n 个整数的类”是什么意思?
我正在尝试将 sklearn SVC 模型转换/存储为 .onnx 文件,但出现我不理解的运行时错误。我已经能够通过 sklearn 随机森林分类器和 sklearn k-NN 分类器有效地使用相同的代码而不会出错。我收到一个奇怪的 onnx 运行时错误,我不明白。对此错误的任何帮助表示赞赏。
下面我首先发布了运行我的文件 svm_time.py 的输出,然后在下面发布了包含在 svm_time.py 文件中的代码。
谢谢。
python - 从源代码构建 onnxruntime 时遇到问题 - FileNotFoundError
我正在尝试从源代码构建 onnxruntime,但遇到了以下问题。
执行后
我遇到以下错误
我尝试更具体地了解 Visual Studio 版本,但我不确定这是否是问题所在。添加标签--msvc 16.7.2
会产生相同的错误。这似乎是一个相当通用的错误消息,可能不是特定于 onnxruntime 构建。
使用管理权限没有帮助。
这个问题的原因是什么,我需要做些什么来解决它?