我有一个模型,从 pytorch 导出,我会调用main_model.onnx
. 它有一个我将调用的输入节点main_input
,它需要一个整数列表。我可以在 onnxruntime 中加载它并发送一个整数列表,它工作得很好。
我制作了另一个 ONNX 模型,我将pre_model.onnx
使用 inputpre_input
和 output进行调用pre_output
。这会预处理一些文本,因此输入是文本,并且pre_output
是整数列表,完全main_model.onnx
符合输入的需要。
我的目标是,使用 Pythononnx.helper
工具,创建一个接受文本作为输入的超级模型,并通过我的pre-model.onnx
,可能是某个连接器节点(Identity
也许?),然后main_model.onnx
在一个大combined.onnx
模型中运行。
我尝试使用pre_model.graph.node
+Identity connector+main_model.graph.node
作为新图中的节点,但是从 pytorch 导出的参数以这种方式丢失了。有没有办法保留所有这些参数和所有内容,并导出这个更大的组合 ONNX 模型?