问题标签 [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
linux - TensorFlow 模型可以作为 Linux/Unix 服务运行吗?
我使用 TensorFlow 的高级机器学习 API (tf.contrib.learn) 构建了一个 TensorFlow 模型。我需要将此模型作为 Linux/Unix 服务运行。或将模型导出为可执行文件。这可能吗?如果是,我该怎么做?
任何帮助表示赞赏。
python - 导出 tensorflow contrib.learn 导出到导出到 tensorfow_serving
我正在尝试导出一个tf.contrib.learn.DNNLinearCombinedClassifier
用于 tensorflow 服务的实例。运行以下代码时:
我收到以下警告:
警告:tensorflow:使用 use_deprecated_input_fn=True 调用导出(来自 tensorflow.contrib.learn.python.learn.estimators.estimator)已弃用,并将在 2016 年 9 月 23 日之后删除。更新说明: export 接受的 input_fn 的签名正在更改以与 tf.Learn Estimator 的训练/评估所使用的一致。input_fn 和 input_feature_key 将成为必需的参数,而 use_deprecated_input_fn 将默认为 False 并被完全删除。
问题是,我现在可以忽略这个警告吗?另一个问题,我将如何为客户端编写代码?如何正确准备 protobuf?
我看到对于 mnist 客户端,他们准备protobuf
如下:
我如何对contrib.learn
估计器中使用的特征列做同样的事情?例如,如果特征列如下?
...并且input_fn
来自诸如https://www.tensorflow.org/versions/r0.11/tutorials/wide/index.html的教程之一将提供从客户端发送的实际数据
更新:
我运行了一个导出/客户端组合,但结果看起来不对。部分导出代码如下:
部分客户端代码如下:
如您所见,我正在尝试将从 pandas 数据帧中提取的所有输入列作为一个名为x_values
. 这是正确的还是我应该为每个特征列创建一个输入?
google-app-engine - 使用 Tensorflow 训练的模型作为服务
我刚开始使用张量流。我能够成功地为我创建的数据集训练它。现在的问题是我将如何使用这个模型进行预测。我想将其作为 REST 服务,我将能够向其传递一些值并获得预测作为响应。也欢迎任何有用的链接。该模型当前位于 VM 上。
谢谢 :)
tensorflow - 如何为 TensorFlow 服务设置 Textsum
我正在尝试使用 tensorflow 服务设置 textsum 的解码功能,但我无法完全理解通过 MNIST 教程执行的完全必要的操作。有没有人遇到过关于设置 Tensorflow 服务模型甚至更符合 textsum 的其他教程?任何帮助或方向都会很棒。谢谢!
最后,我试图从通过 seq2seq_attention.py 中的“train”训练的模型导出解码功能:https ://github.com/tensorflow/models/blob/master/textsum/seq2seq_attention.py
在比较以下 2 个文件以了解我需要对上述 textsum 模型执行的操作时,我很难理解需要在“default_graph_signature、输入张量、classes_tensor 等”中分配什么我意识到这些可能与 textsum 模型不一致,但这是我想要澄清的,如果我看到一些其他模型被导出到 tensorflow 服务,它可能会更有意义。
和
https://github.com/tensorflow/serving/blob/master/tensorflow_serving/example/mnist_export.py
- - - - - - - - - 编辑 - - - - - - - - - -
以下是我到目前为止的内容,但我遇到了一些问题。我正在尝试设置 Textsum Eval 服务功能。首先,当分配 Saver(sharded=True) 时,我收到一条错误消息,指出“没有要保存的变量”。除此之外,我也不明白我应该为“classification_signature”和“named_graph_signature”变量分配什么,以便通过 textsum 解码导出结果。
关于我在这里缺少的任何帮助......确定它有点。
tensorflow - 如何获得重新训练的 inception-v3 模型的“检查点”?
我正在尝试在 tensorflow-serving 中使用经过重新训练的 inception-v3 模型。但似乎我必须提供一个“检查点”。我想知道如何获得这些“检查点”?retrain.py
返回给我一个retrained_graph.pb
. 我按照本教程(https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/#0)
谢谢!
tensorflow - 如何对 TensorFlow Servings model_server 中加载的 TensorFlow 的 Wide and Deep 模型进行预测
有人可以帮助我对加载到 TensorFlow Serving 的 model_server 中的 TensorFlow 的 Wide and Deep Learning 模型进行预测吗?
如果有人可以向我指出相同的资源或文档,那将非常有帮助。
tensorflow - TensorFlow 跨设备通信
正如 TensorFlow 论文所述,Tensorflow 的跨设备通信是通过在设备中添加“接收节点”和“发送节点”来实现的。
据我了解,设备(请考虑仅涉及 CPU 设备)负责执行操作的计算。但是,数据(例如:操作产生的张量,变量缓冲区)驻留在内存中。我不知道如何在物理上实现从一台设备到另一台设备的数据传输。我猜数据传输是通过共享内存实现的。那正确吗?
我将不胜感激有关如何实现数据传输的任何解释/相应代码。PS:TensorFlow论文链接,图4展示了跨设备通信机制。
tensorflow - TensorFlow 多次运行和节点放置
在这个Tensorflow 分布式训练代码示例中,sess.run([train_op, global_step])
将被多次调用(在一个 while 循环中)。由于在执行 DAG 操作之前,Tensorflow 需要首先将图节点放置到某些设备(节点放置过程)。
在这种情况下,我想知道需要完成多少节点放置过程。假设循环计数为 N,Tensorflow 系统是否只执行一次节点放置?或执行节点放置N 次?
tensorflow - 导出的 TensorFlow 模型不保留占位符形状
我正在使用exporter
fromtensorflow.contrib.session_bundle
来保存我的模型:
然后我将模型重新加载(session_bundle
from tensorflow.contrib.session_bundle
):
但是,当我检查与输入 x 对应的占位符张量时,我看不到任何形状信息:
这是设计使然还是有一些错误导致形状丢失?
python - 初始训练是否适用于不平衡的数据集?(张量流)
我想知道这里的代码是否https://github.com/tensorflow/models/tree/master/inception
用于微调初始网络,正在处理不平衡的数据集。样本数据集是花,包含 5 类相同数量的图片。它是否适用于每个类中具有不同数量图片的数据集?