0

我有一组 pytorch 模型,它们是简单的全连接神经网络,并且都具有相同的架构。

其中之一是主模型,并通过反向传播进行训练。其他是仅用于推理的工人。

不时地,主模型被复制到工作模型中,以便它们与主模型保持同步(通过反向传播不断发展)。

使用标准 pytorch 一切正常,但我认为“编译”所有模型可以提高性能。

  • 考虑到我的用例,是否可以使用 JIT 跟踪来做到这一点?
  • 我该如何处理从主人到工人的定期副本?(即我应该能够从编译模型中获取和设置参数)
4

0 回答 0