4

有没有办法并行运行多个 ONNX 模型并使用多个可用内核?

目前,我已经训练了两个 ONNX 模型并想使用它们进行推断。我使用了 Python 中的线程,但这并没有真正使用多核。

之后我尝试了多处理,但这给了我以下错误:

不能腌制 onnxruntime.capi.onnxruntime_pybind11_state.SessionOptions 对象

请让我知道是否有任何解决方法?

4

1 回答 1

1

第 1 步:如果您正在 GPU 上运行应用程序,则以下解决方案会有所帮助。

import multiprocessing

CUDA 运行时不支持 fork start 方法,所以在多进程调用之前使用 spawn,如下所示:

multiprocessing.set_start_method('spawn')

更多理解请参考:https ://github.com/microsoft/onnxruntime/issues/7846

STEP2:您需要在单个进程内存中传递您的引用对象,或者您也可以使用共享内存方法,如下所示:

 from multiprocessing.managers import BaseManager
 from PythonFile import ClassName

 BaseManager.register('LabelName', ClassName)
 manager = BaseManager()
 manager.start()
 obj = manager.ClassName()

现在您可以将这个“obj”作为参数传递给进程调用,然后可以在所有多个进程中访问该参数。

于 2021-08-25T10:52:00.830 回答