问题标签 [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何将图像传递给模型以在 Tensorflow 中进行分类
我使用以下代码创建了一个模型:
我保存了模型并编写了另一个 python 程序,我试图恢复模型并将其用于我的图像分类,但我无法创建图像的 4D 张量,我必须将其作为输入传递给该模型。
python文件的代码如下:
正如您在 ln[19] 中看到的,我已经恢复了我的模型并希望通过创建 4d 张量将图像传递给模型,我正在读取图像,然后尝试将其转换为 4d 张量,但用于创建它的 ysntax我的代码有问题,因此需要帮助来纠正它。
tensorflow - 将图像传递给 Tensorflow 中的模型后未进行分类
我正在尝试通过遵循 2_fullyconnected.ipynb udacity 分配将图像传递给我创建的模型。
我创建模型的代码如下所示。
模型保存在 /tmp/important_model/ 中。
该文件夹的树结构如下:
现在我正在创建一个新文件,我试图在其中恢复我的模型,然后将图像传递给模型进行分类。
我也在新的 python 文件中创建了图形,这是恢复模型所必需的(我想,我可能错了。如果我错了,请纠正我)。
当我在这个 ipython 笔记本中执行 ln[34] 时,即将出现的输出是:
我想告诉给定图像可能属于的 5 个可能标签,但不知道该怎么做,上面的程序没有显示任何错误,但也没有显示所需的输出。我想我会得到图像在所有类中的概率,因为我已经在 tf.nn.softmax 函数中传递了我的图像,但不幸的是没有得到任何东西。
任何帮助,将不胜感激。
tensorflow - 出口商分类_签名
我正在尝试修改服务教程以使用我的模型,这基本上是修改为使用 CSV 文件和 JPEG 的 CIFAR 示例。我似乎找不到 Exporter 类的文档,但这是我目前所拥有的。它在 cifar10_train.py 文件的 train() 函数中:
这是我用来训练模型的代码:
任何想法如何正确设置导出器?
python - 使用 Flask 使用 REST API 为训练有素的 Tensorflow 模型提供服务?
我有一个训练有素的 Tensorflow 模型,我想使用 REST API 提供预测方法。我能想到的是使用Flask构建一个简单的REST API,接收JSON作为输入,然后调用Tensorflow中的predict方法,然后将预测结果返回给客户端。
我想知道这样做是否有任何顾虑,尤其是在生产环境中?
非常感谢!
android - 在 C++ 应用程序中使用 TensorFlow 模型
提前为这个相对新手的问题道歉。使用 Tensorflow,我在 python 中训练了一个神经网络,我想用它来分类 c++ 应用程序中的图像,我想稍后将其集成到一个 android 应用程序中。
今天我花了一整天的时间学习 Tensorflow Serving 教程:https ://tensorflow.github.io/serving/serving_basic 。
我已经安装并工作了所有东西,但对我来说下一步该做什么仍然不明显。TF Serving 是正确的做法吗?它可以用于将经过训练的 TF 模型集成到应用程序中吗?还是只是构建可以从终端运行的模型?
如果 TF Serving 不是我需要的,那么我应该在哪里寻找呢?有没有更简单的方法可以跨平台使用经过训练的模型?
谢谢!
python - de-Bazel-ing TensorFlow Serving
虽然我钦佩文档承诺通过 Bazel 调解与 TensorFlow Serving 相关的所有内容,但我对此感到有些困惑,但我对它的理解充其量是微不足道的。我想尽量减少与它的互动。
我正在通过改编 Inception + TF Serving 教程中的代码来实现我自己的 TF Serving 服务器。我发现 BUILD 文件本身就足够令人生畏,我决定简单地编辑 BUILD 以引用该.cc
文件,而不是通过冗长的调试过程,而不是构建 python 的东西(据我了解?)不是绝对必要的。
但是,我的 TF Serving 功能安装无法导入 python。使用普通的 TensorFlow,您可以构建一个.whl
文件并以这种方式安装它;TF Serving 可以做类似的事情吗?这样我就可以将模型的构建和导出保持在友好的 python 交互式 shell 领域,而不是编辑它,交叉所有可用的手指,在 bazel 中构建,然后/bazel-bin/path/running/whatever
.
到目前为止,简单地将目录添加到我的 PYTHONPATH 是不成功的。
谢谢!
linux - Tensprflow 服务安装错误
我正在尝试安装 Tensorflow Serving,我按照 Tensorflow 网站上可用的步骤进行操作,但是当我运行以下命令时:
很长一段时间(如 30 分钟或更长时间)后,我收到以下错误。
我附上了一个截图来提供完整的报告,我使用的是 Ubuntu,我安装了 Bazel 版本 0.2 。我已经搜索过了,显然这可能是内存不足的问题,但我找不到解决方法。
如果有人知道解决方案,那将非常有帮助。
python - 使用 tensorflow 构建项目时出错
我收到错误消息:
每当我尝试使用 tensorflow 为项目运行 bazel 时。我从https://github.com/tensorflow/serving/blob/master/WORKSPACE复制了工作区文件
这是我的工作区文件版本:
我确实安装了 tensorflow,并且 python 运行它可以不需要安装 bazel 的文件。
apache - 使用 Flask 在 Web 服务器上部署 Tensorflow
我正在尝试在 AWS 服务器(AMI ID:深度学习(ami-77e0da1d))上部署一个带有 tensorflow 的 Flask Web 应用程序,用于图像分类应用程序。
当我在服务器中使用 tensorflow 时,它可以正常工作,但是当我尝试将它与应用程序一起使用时,我得到:
未收到数据 ERR_EMPTY_RESPONSE
在 error.log 文件的末尾,我有:
F tensorflow/stream_executor/cuda/cuda_dnn.cc:204]在cudnn DSO中找不到cudnnCreate;dlerror:/usr/local/lib/python2.7/dist-packages/tensorflow/python/_pywrap_tensorflow.so:未定义符号:cudnnCreate [Sat May 14 11:30:54.124034 2016] [core:notice] [pid 1332:tid 139695334930304] AH00051:子 pid 2999 退出信号已中止 (6),/etc/apache2 中可能存在核心转储
我的 CuDNN 版本:4.0.7
如有必要,我可以提供更多详细信息
tensorflow - 如何使用 Tensorflow Serving 为重新训练的 Inception 模型提供服务?
所以我根据这个指南训练了初始模型来识别花朵。https://www.tensorflow.org/versions/r0.8/how_tos/image_retraining/index.html
要通过命令行对图像进行分类,我可以这样做:
但是我如何通过 Tensorflow 服务来服务这个图表呢?
关于设置 TensorFlow 服务的指南 ( https://tensorflow.github.io/serving/serving_basic ) 没有说明如何合并图表 (output_graph.pb)。服务器需要不同格式的文件: