1

我有一个 tf.estimator 模型

模型 = tf.estimator.DNNClassifier(hidden_​​units=[5, 4],feature_columns=feat_cols,n_classes=2)

通过导出

feature_spec = tf.feature_column.make_parse_example_spec(feat_cols)
serving_input_receiver_fn = tf.estimator.export.build_parsing_serving_input_receiver_fn(feature_spec)
export_dir = model.export_savedmodel('export', serving_input_receiver_fn)

我可以通过以下方式在我的笔记本中加载和使用

predict_fn = tf.contrib.predictor.from_saved_model(export_dir)

当我运行 tensorflowjs_converter

tensorflowjs_converter --input_format=tf_saved_model --output_format=tensorflowjs ./1553869899 ./web_model

我明白了

ValueError: Unsupported Ops in the model before optimization
ParseExample, AsString

我环顾四周,发现 ParseExample 和 AsString 显然是不受支持的操作。我正在使用不直接调用 ParseExample 或 AsString 的非常普通的代码。不打算重写 tensorflow 的部分内容,这似乎是对不受支持的 Ops 问题的其他答案所要求的。

问题:有没有办法解决这个问题?我是否需要放弃 tf.estimator 并通过较低级别的 API 对其进行编码?是否有其他方法可以导出 tf.estimator 模型或将其转换为可行的方法?

谢谢。

4

0 回答 0