问题标签 [onnx]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - ValueError:您传入了一个可迭代的属性,但我无法确定它的适用类型
我正在尝试使用tf2onnx工具将 facenet 模型(20170512-110547.pb)转换为 onnx 格式。但是当我尝试使用此命令进行转换时
它给了我这个错误
ValueError:ValueError:您传入了一个可迭代的属性,但我无法确定它的适用类型。
完整的错误日志
我只有.pb
文件和tf2onnx
工具。
如果有人能花时间回答这个问题,我将不胜感激!谢谢你。
pytorch - Pytorch 到 ONNX 导出功能失败并导致遗留功能错误
我正在尝试使用以下代码将此链接中的 pytorch 模型转换为 onnx 模型:
但是我收到以下错误(抱歉,stackoverflow 下方的块引用不会让整个跟踪采用代码格式,也不会让问题以其他方式发布):
第 132 行,在导出 strip_doc_string,dynamic_axes) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\onnx\utils.py”,第 64 行,在导出 example_outputs= example_outputs、strip_doc_string=strip_doc_string、dynamic_axes=dynamic_axes) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\onnx\utils.py”,第 329 行,在 _export _retain_param_name , do_constant_folding) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\onnx\utils.py”,第 213 行,在 _model_to_graph 图中,torch_out = _trace_and_get_graph_from_model(model,参数,培训)文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\onnx\utils.py”,第 171 行,在 _trace_and_get_graph_from_model 跟踪中,torch_out = torch.jit.get_trace_graph(model, args, _force_outplace=True) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\ jit__init__.py”,第 256 行,在 get_trace_graph 返回 LegacyTracedModule(f, _force_outplace, return_inputs)(*args, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site- packages\torch\nn\modules\module.py",第 547 行,在_force_outplace, return_inputs)(*args, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,第 547 行, 在_force_outplace, return_inputs)(*args, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,第 547 行, 在调用 结果 = self.forward(*input, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\jit__init__.py”,第 323 行,在forward out = self.inner(*trace_inputs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,第 545 行,在称呼 结果 = self._slow_forward(*input, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,行531,在 _slow_forward 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”中,第 531 行,在 _slow_forward 结果 = self.forward (*input, **kwargs) 文件“D:\smallobject2\export test s\small_object_detection_master_samirsen\model\faster_rcnn.py”,第 133 行,向前 h,rois,roi_indices) 文件“C:\Users\HP\AppData\ Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py",第 545 行,正在调用中 结果 = self._slow_forward(*input, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,行531,在 _slow_forward 结果 = self.forward(*input, **kwargs) 文件 "D:\smallobject2\export test s\small_object_detection_master_samirsen\model\faster_rcnn_vgg16.py",第 142 行,在 forward pool = self.roi(x, indices_and_rois)文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,第 545 行,调用中 结果 = self._slow_forward(*input, **kwargs) 文件“C:\Users\HP\AppData\Local\Programs\Python\Python36\lib\site-packages\torch\nn\modules\module.py”,行531,在_slow_forward result = self.forward(*input, **kwargs) 文件“D:\smallobject2\export test s\small_object_detection_master_samirsen\model\roi_module.py”,第85行,在forward return self.RoI(x, rois ) RuntimeError: 试图跟踪 RoI,但不支持跟踪遗留函数
tensorflow - 没有onnx,如何手动将pytorch模型转成tensorflow模型?
由于 ONNX 支持的模型有限,我尝试通过直接分配参数来进行这种转换,但获得的 tensorflow 模型未能显示出预期的精度。详细说明如下:
- 源模型是在 MNIST 数据集上训练的 Lenet。
- 我首先通过 model.named_parameters() 提取每个模块及其参数并将它们保存到一个字典中,其中键是模块的名称,值是参数
- 然后,我构建并启动了一个具有相同架构的 tensorflow 模型
- 最后,我将pytroch模型的每一层的参数分配给tensorflow模型
然而,获得的 tensorflow 模型的准确率只有 20% 左右。因此,我的问题是是否可以通过这种方法转换 pytorch 模型?如果是,导致不良结果的可能问题是什么?如果不是,请解释原因。
PS:假设分配程序是正确的。
dependencies - 在 conda 上安装 onnx 库失败并出现版本问题
我正在尝试使用在 Windows 机器上为我的配置文件(env?)安装 condaconda install --name ptholeti onnx -c conda-forge
它因 pip、wheel 和 wincertstore 上的依赖项/版本问题而失败。
github 上的类似问题已被建议创建一个新的环境,似乎是因为 3.7 尚不支持所有必需的。但是这些问题已经存在一年多了,所以我想我遗漏了一些东西。
任何帮助/指导都会很棒。
conda info
:
tensorflow - 从 TensorFlow 到 Onnx 的转换
我想将这个 TF 模型:ICNET_0.5 转换为 onnx,我遵循了这个例子:ConvertingSSDMobilenetToONNX
我明白如果我只是想推断我应该使用冻结图(在我的情况下:)frozen_inference_graph.pb
所以我将名称更改为savel_model.pb
(似乎 tf2onnx 无法识别其他名称)并运行以下错误:
当我运行时:
我认为有些东西指向frozen_inference_graph.pb
其他文件,但它不再存在(尽管它说所有权重都在图表内)。
知道出了什么问题吗?
deep-learning - Jetson nano 上的 Onnx 到 tensorrt arcface 模型转换错误(分段故障核心转储)
我正在将 onnx 版本的 arcface 模型转换为 tensorrt。我正在关注该过程的官方 nvidia 文档。但是,我收到了分段错误核心转储的错误。请提供您最好的建议。我在jetson nano上运行它。
pytorch - 我们不能运行导入到 pytorch 的 onnx 模型吗?
我一直在尝试从 onnx 格式导入模型以使用 pytorch。我发现很难找到同样的例子。由于 Internet 上的大多数资源都在谈论将 pytorch 模型导出到 onnx。
发现torch.onnx() 只能导出模型,导入方法还没有实现。直接安装 onnx 库,帮助我做 onnx.load("model_name.onnx")。如何将此模型与 pytorch 一起使用?我无法使用 model.to(device="GPU") 将模型移动到 GPU
tensorflow - 如何将 onnx 模型转换为 tensorflow 保存的模型?
我正在尝试使用 tf-serving 来部署我的火炬模型。我已将我的手电筒模型导出到 onnx。如何为 tf-serving 生成 pb 模型?
c# - Pix2pixHD 的推理
我使用Pix2PixHD训练了一个模型,然后将其导出到 onnx,我想使用 UWP 在 C# 中进行推理。
Pix2PixHD 所需的输入为:
1 张语义标签图像(512x1024 灰度)
1 个图像实例(512x1024 灰度)
训练期间用作热转换器的标签数量(例如“--label_nc 16”)
我可以在 python 中测试我的模型,但我不知道如何在 C# 中绑定它,所以我非常感谢任何帮助。
这就是我在 WinML Dashboard 中的模型:
这就是它在 WinMLRunner 中的样子:
这是从 Visual Studio 生成的代码:
python - 如何设置环境变量 TF_Keras = 1 进行 onnx 转换?
最近更新到 tensorflow 2.0 并且无法将我的 .h5 模型导入 .onnx 。曾经是一个非常简单的程序,但现在我遇到了问题。当我运行以下代码时:
当我运行代码时,出现以下错误
我尝试使用注释掉的行
有没有人遇到过这个问题或知道如何更改该变量来转换模型?感谢任何帮助。