是否可以在 TF Serving 中提供由推理编译器(特别是ONNXRuntime、TVM或TensorRT )优化的模型?或者 TF Serving 只能在 TensorFlow 运行时提供由 TensorFlow 创建的 SavedModel?
是否可以在 TF Serving 中提供由推理编译器(特别是ONNXRuntime、TVM或TensorRT )优化的模型?或者 TF Serving 只能在 TensorFlow 运行时提供由 TensorFlow 创建的 SavedModel?