我有一个 tf.estimator 模型
模型 = tf.estimator.DNNClassifier(hidden_units=[5, 4],feature_columns=feat_cols,n_classes=2)
通过导出
feature_spec = tf.feature_column.make_parse_example_spec(feat_cols)
serving_input_receiver_fn = tf.estimator.export.build_parsing_serving_input_receiver_fn(feature_spec)
export_dir = model.export_savedmodel('export', serving_input_receiver_fn)
我可以通过以下方式在我的笔记本中加载和使用
predict_fn = tf.contrib.predictor.from_saved_model(export_dir)
当我运行 tensorflowjs_converter
tensorflowjs_converter --input_format=tf_saved_model --output_format=tensorflowjs ./1553869899 ./web_model
我明白了
ValueError: Unsupported Ops in the model before optimization
ParseExample, AsString
我环顾四周,发现 ParseExample 和 AsString 显然是不受支持的操作。我正在使用不直接调用 ParseExample 或 AsString 的非常普通的代码。不打算重写 tensorflow 的部分内容,这似乎是对不受支持的 Ops 问题的其他答案所要求的。
问题:有没有办法解决这个问题?我是否需要放弃 tf.estimator 并通过较低级别的 API 对其进行编码?是否有其他方法可以导出 tf.estimator 模型或将其转换为可行的方法?
谢谢。