问题标签 [onnx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure - 无法在 Azure 机器学习服务工作区中注册 ONNX 模型
我试图以两种不同的方式将 ONNX 模型注册到 Azure 机器学习服务工作区,但我遇到了无法解决的错误。
第一种方法:通过 Jupyter Notebook 和 python 脚本
错误是:HttpOperationError:操作返回无效状态代码“服务调用失败!请求:GET https://cert-westeurope.experiments.azureml.net/rp/workspaces ”
任何人都可以帮忙吗?
python - 如何将自定义训练的 PyTorch 模型集成到 OpenCV 的 dnn 模块中?
我有一个模型,用 PyTorch 训练。我想将它与 opencv 中的 dnn 模块集成,以便可以轻松使用经过训练的模型。实际上,我有一个模型并计划在 opencv 中贡献它。我不知道如何制作我的模型,以便可以通过 opencv dnn 模块访问它,就像 opencv 中已经定义的模型一样。
我需要使用 ONNX 在 dnn 中加载模型吗?
简而言之,我有一个 pytorch 模型,我想通过像其他预定义模型一样添加我的模型来为 OpenCV 做出贡献。
一个小指南会很有帮助。
提前致谢...
pytorch - RuntimeError:仅支持作为 JIT 输入的元组、列表和变量,但得到了 NoneType
我的代码是
我正在尝试将 PyTorch 模型导出为 ONNX 格式,以便可以在 TensorRT 中使用它。在 PyTorch 中测试我的模型时,输入张量维度为 (1,80,x),其中 x 取决于输入文本长度(我使用的模型是名为 waveglow 的 TTS 模型)
当我尝试运行上述代码以将模型导出到 onnx 时,我总是收到此错误
请帮忙
onnx - 将 .onnx 文件加载到 javascript 中
我正在尝试将 .onnx 文件加载到 javascript 会话中。我收到的错误是 TypeError: unrecognized operator 'ReduceL2',但这个链接https://github.com/onnx/onnx/blob/master/docs/Operators.md说 onnx 支持 'ReduceL2'。我猜这可能与 webGL 不支持它有关。是否有任何解决方法或更好的方法可以在浏览器中运行模型?对 javascript 来说非常新。
Javascript代码:
抛出的错误:
python - Caffe2:加载 ONNX 模型,并在多核主机/docker 上推断单线程
当主机有多个内核时,我无法在 docker 中的模型上运行推理。该模型通过 PyTorch 1.0 ONNX 导出器导出:
使用单核启动模型服务器(包装在 Flask 中)会产生可接受的性能(cpuset 将进程固定到特定的 cpu)docker run --rm -p 8081:8080 --cpus 0.5 --cpuset-cpus 0 my_container
来自的回应ab -c 1 -n 1000 http://0.0.0.0:8081/predict\?itemids\=5,100
但是将它固定到四个核心会为同一个 ab-call 提供完全不同的统计数据docker run --rm -p 8081:8080 --cpus 0.5 --cpuset-cpus 0,1,2,3 my_container
模型推理是这样完成的,除了这个问题,它似乎按预期工作。(当然,这在与模型导出完全不同的环境中运行)
OMP_NUM_THREADS=1
在容器环境中也存在,这有一些影响,但这不是最终问题。
您在此处看到的基准统计数据是在具有 8 个超线程的本地计算机上运行的,因此我不应该使我的计算机饱和并影响测试。这些结果也出现在我的 kubernetes 环境中,并且在那里我得到了大量的 CFS(完全公平调度程序)限制。
我在 kubernetes 环境中运行,所以我无法控制主机暴露多少 CPU,并且在那里进行某种固定似乎也有点 hacky。
有没有办法将 caffe2 模型推断固定到单个处理器?我在这里做明显错误的事情吗?caffe2.Predictor 对象是否不适合此任务?
任何帮助表示赞赏。
编辑:
我在这里添加了我能想到的最简单的可重现示例,其中包括 docker-container 和 run-script:https ://github.com/NegatioN/Caffe2Struggles
machine-learning - Pytorch 中的 int8 数据类型
在 Pytorch 中使用 int8 数据类型运行量化模型的最佳方法是什么?我知道在 pytorch 中我可以将张量定义为int8,但是,当我真正想使用 int8 时,我得到:
所以我很困惑,当卷积等计算块不支持数据类型时,如何在 pytorch 中运行使用例如 int8 的量化模型?我正在使用 pytorch 版本1.0.1.post2。
python - onnx 错误为 - 模块“numpy”没有属性“dtype”
当我尝试测试安装 onnx 时出现错误:
我也在网上看到了一些解决方案,但它们不能正常工作。我该如何克服它?
谢谢
tensorflow - AttributeError:“模块”对象没有属性“ceil”
我已经从这个链接安装了模块 onnx_tf 。
之后,当我验证安装python -c "import onnx_tf"
时遇到以下错误。我该如何解决?谢谢
deep-learning - 将 pytorch 转换为 onnx 时 state_dict 中出现意外和缺失的键
当我将“.pth”模型从 PyTorch 转换为 ONNX 时,会发生类似错误Unexpected keys and missing keys
。
这是我的模型:
这是错误:
matlab - opencv import onnx 错误结果
你好,我从 matlab 导出 alexnet 模型为 onnx 格式。当我在 opencv 4.1 中导入模型并运行第一个减法层时,它乘以图像 insted 减法
我为输入图像每行设置常数值,并查看结果乘以平均图像。
convnet=alexnet exportONNXNetwork(convnet,'filenameONNX.onnx')
输入图像第一行是 1,第二行是 2,第 10 行是 10,我看到它乘以 alexnet 内的平均图像!