0

我使用mxnet框架训练了一个模型。该模型的推理时间约为 9 毫秒。该模型主要由conv层组成,使用depthwise separable convolution。

我想在浏览器中运行该模型。我将模型转换为 ONNX 格式,然后从

ONNX -> tensorflow -> tensorflowjs。

tensorflowjs 模型的推理时间约为 129 毫秒。

有什么建议可以提高模型的性能吗?

我也尝试过ONNXJS,但它似乎仍然有一些错误

4

1 回答 1

1

由于您要处理 129 毫秒的延迟,因此可以进行重新架构。您将有时间将图像发送到运行高性能推理服务器的端点(EC2 或 SageMaker + API 网关)。

维沙尔

于 2019-03-05T18:16:30.560 回答