我有一组 pytorch 模型,它们是简单的全连接神经网络,并且都具有相同的架构。
其中之一是主模型,并通过反向传播进行训练。其他是仅用于推理的工人。
不时地,主模型被复制到工作模型中,以便它们与主模型保持同步(通过反向传播不断发展)。
使用标准 pytorch 一切正常,但我认为“编译”所有模型可以提高性能。
- 考虑到我的用例,是否可以使用 JIT 跟踪来做到这一点?
- 我该如何处理从主人到工人的定期副本?(即我应该能够从编译模型中获取和设置参数)
我有一组 pytorch 模型,它们是简单的全连接神经网络,并且都具有相同的架构。
其中之一是主模型,并通过反向传播进行训练。其他是仅用于推理的工人。
不时地,主模型被复制到工作模型中,以便它们与主模型保持同步(通过反向传播不断发展)。
使用标准 pytorch 一切正常,但我认为“编译”所有模型可以提高性能。