1

我正在使用 tensorflow 提供的一些罐装估计器,例如 DNN 。生成的模型大小非常大(数百兆字节),延迟也非常高(数百毫秒)。我想尝试 AOT 编译,看看我是否得到了服务延迟改进和模型尺寸减小。有没有一个例子说明我如何让 xla.compile 与罐装估计器一起工作。您能否指出一些示例代码或任何有类似经验的人引导我朝着正确的方向前进?

4

0 回答 0