问题标签 [onnx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 从 onnx 文件中查找输入形状
如何找到 onnx 模型的输入大小?我最终想从 python 编写脚本。
使用 tensorflow,我可以恢复图形定义,从中找到输入候选节点,然后获取它们的大小。我可以用 ONNX(甚至更简单)做类似的事情吗?
谢谢
python - 在 LibTorch 中运行从 PyTorch 训练和导出的模型时获得的不正确结果
我正在尝试使用 LibTorch 导出经过训练的模型以及权重以在 C++ 中进行推理。但是,输出张量结果不匹配。
输出张量的形状是相同的。
但是会生成一些警告,我认为这可能会导致生成不正确的结果。
/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:137:TracerWarning:将张量转换为 Python 索引可能会导致跟踪不正确。我们无法记录 Python 值的数据流向,所以以后这个值会被当作一个常量来处理。这意味着跟踪可能不会推广到其他输入!/usr/local/lib/python3.6/dist-packages/torch/tensor.py:435:RuntimeWarning:迭代张量可能会导致跟踪不正确。传递不同形状的张量不会改变执行的迭代次数(并可能导致错误或默默地给出不正确的结果)。'不正确的结果)。',category=RuntimeWarning)
以下是生成输出张量的 LibTorch 代码
有没有人尝试在 LibTorch 中使用经过训练的 PyTorch 模型?
python - 如何从 ONNX 模型中获取输入数据?
我已将我的 PyTorch 模型导出到 ONNX。现在,我有没有办法从那个 ONNX 模型中获取输入层?
将 PyTorch 模型导出到 ONNX
加载 ONNX 模型
我希望能够以某种方式从 onnx_model 获取输入层。这可能吗?
onnx - 如何将 ONNX 网络(由 MatLab 生成)转换为 caffemodel?
我在 Matlab 中构建了一个网络并导出为 ONNX,但我需要一个 caffemodel。我怎样才能转换它?我发现了这个 https://github.com/MTlab/onnx2caffe 但它根本不起作用
python - 无法将 pyTorch 模型转换为 ONNX
我想将我的 pyTorch 模型转换为 ONNX。但是,我收到一条错误消息
RuntimeError: 提供的输入名称数 (9) 超过了输入数 (7) 但是,如果我从模型中取出两个 Dropout 层,我的代码将完美运行。
为什么是这样?
这是我的代码:
我该怎么做才能将其导出到包含 Dropout 的 ONNX?
gpu - Qualcomm SNPE 可以在 linux 板上工作吗?
我希望让 qualcomm SNPE(金鱼草神经处理引擎)在我的 linux(不是 Android)板(flightPro w/qualcomm 820.)上工作。它在 cpu 上运行良好。
我已经成功地按照提供的示例将 alexnet 加载到我的 820 板上并在 cpu 模式下运行 snpe (snpe-net-run)。它不在 gpu 模式下运行。
搜索网络和论坛(例如,https ://developer.qualcomm.com/forum/qdn-forums/software/qualcomm-neural-processing-sdk/59207 )似乎所有(?)linux板都可能缺少opencl完成这项工作所需的驱动程序。
按照例子...
我希望 gpu 能够工作(希望交叉手指比 cpu 快得多!)
machine-learning - 使用 ONNX 将 YOLOV3 Pytorch 模型转换为 coreml 以在 IOS 应用程序中时面临问题
我要转换的模型:https ://github.com/ultralytics/yolov3
我正在尝试将此 pytorch yolov3 模型转换为 coreML,为此我使用了 ONNX,它用于将模型从一个平台转换为另一个平台。它正在转换模型,当我在 xcode 中运行它时,我可以看到它的输入和输出不同,它没有检测到任何对象,也没有在屏幕上显示任何矩形。
我已经尝试过本教程并遵循了类似的步骤,但这次是针对 YOLOV3。谷歌文档:https ://drive.google.com/drive/folders/1uxgUBemJVw9wZsdpboYbzUN4bcRhsuAI
我还检查了 Yolov3 自己也提供了“onnx”文件,所以我什至尝试使用该文件并将其转换为 coreML,但它仍然没有检测到对象并提供错误的输入/输出值。
将 Pytroch 转换为 ONNX
名为“yoloToOnnx.py”的文件内容:
命令:
将 ONNX 模型转换为 CoreML 模型:
文件 onnx_to_coreml.py 内容:
命令:
我期待转换后我应该能够在我的 IOS 应用程序中使用这个模型,它将检测带有矩形及其名称的不同对象。
奇怪的是,在转换它时没有抛出任何错误,它给出了编译成功的消息,但在 IOS App 中使用时没有给出预期的输出。
pytorch - 如何在 onnx 中知道模型的输入大小?
pytorch 中没有指定输入的大小。只需调整内核大小以进行输出。WinMLDashboard 显示图像输入的宽度和高度。这怎么可能?
neural-network - 如何创建 ONNX 文件?
如何手动创建 ONNX 文件?我的意思是在不使用 PyTorch、caffe2 等框架的情况下,如果我们知道先前的网络详细信息(如节点数、节点类型、它们的连接等),我们可以(可能是二进制编码)创建一个 onnx 文件吗?
keras - 导出的 onnx 模型输出与 keras 模型输出不同
onnx 中使用的权重值和 Keras 中使用的权重值是一样的。
但是,输出值在实际参考中有所不同。问题是什么?
批量标准化有问题吗?