我使用mxnet框架训练了一个模型。该模型的推理时间约为 9 毫秒。该模型主要由conv层组成,使用depthwise separable convolution。
我想在浏览器中运行该模型。我将模型转换为 ONNX 格式,然后从
ONNX -> tensorflow -> tensorflowjs。
tensorflowjs 模型的推理时间约为 129 毫秒。
有什么建议可以提高模型的性能吗?
我使用mxnet框架训练了一个模型。该模型的推理时间约为 9 毫秒。该模型主要由conv层组成,使用depthwise separable convolution。
我想在浏览器中运行该模型。我将模型转换为 ONNX 格式,然后从
ONNX -> tensorflow -> tensorflowjs。
tensorflowjs 模型的推理时间约为 129 毫秒。
有什么建议可以提高模型的性能吗?