现在我们可以成功地使用 Tensorflow Serving 服务模型。我们使用以下方法导出模型并使用 Tensorflow Serving 托管它。
------------
For exporting
------------------
from tensorflow.contrib.session_bundle import exporter
K.set_learning_phase(0)
export_path = ... # where to save the exported graph
export_version = ... # version number (integer)
saver = tf.train.Saver(sharded=True)
model_exporter = exporter.Exporter(saver)
signature = exporter.classification_signature(input_tensor=model.input,
scores_tensor=model.output)
model_exporter.init(sess.graph.as_graph_def(),
default_graph_signature=signature)
model_exporter.export(export_path, tf.constant(export_version), sess)
--------------------------------------
For hosting
-----------------------------------------------
bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models
然而我们的问题是——我们希望 keras 与 Tensorflow 服务集成。我们想通过使用 Keras 的 Tensorflow 服务来服务模型。我们想要这样做的原因是 - 在我们的架构中,我们遵循几种不同的方法来训练我们的模型,例如 deeplearning4j + Keras、Tensorflow + Keras,但对于服务,我们只想使用一个可服务的引擎,即 Tensorflow Serving。我们没有看到任何直接的方法来实现这一目标。任何意见 ?
谢谢你。