我在 TensorFlow 服务中运行 tf.contrib.learn 广泛而深入的模型,并导出我正在使用这段代码的训练模型
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
saver = tf.train.Saver()
m.fit(input_fn=lambda: input_fn(df_train), steps=FLAGS.train_steps)
print('model successfully fit!!')
results = m.evaluate(input_fn=lambda: input_fn(df_test), steps=1)
for key in sorted(results):
print("%s: %s" % (key, results[key]))
model_exporter = exporter.Exporter(saver)
model_exporter.init(
sess.graph.as_graph_def(),
init_op=init_op,
named_graph_signatures={
'inputs': exporter.generic_signature({'input':df_train}),
'outputs': exporter.generic_signature({'output':df_train[impressionflag]})})
model_exporter.export(export_path, tf.constant(FLAGS.export_version), sess)
print ('Done exporting!')
但是在使用命令saver = tf.train.Saver()
时错误ValueError: No variable to save is displayed
在此处输入图像描述
如何保存模型,以便在 tensorflow 标准服务器中加载导出的模型时创建一个 servable?任何帮助表示赞赏。