问题标签 [tensorflow-serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 如何使用 Tensorflow 推理模型生成类似 deepdream 的图像
我正在使用自定义图像集来训练使用 Tensorflow API 的神经网络。在成功的训练过程之后,我得到了这些包含不同训练变量值的检查点文件。我现在想从这些检查点文件中获取推理模型,我找到了执行此操作的脚本,然后我可以使用它来生成 deepdream 图像,如本教程中所述。问题是当我使用以下方法加载模型时:
我收到此错误:
graph_def.ParseFromString(f.read())
self.MergeFromString(序列化)
raise message_mod.DecodeError('Unexpected end-group tag.') google.protobuf.message.DecodeError: Unexpected end-group tag。
该脚本需要一个协议缓冲区文件,我不确定我用来生成推理模型的脚本是否给了我原型缓冲区文件。
有人可以建议我做错了什么,或者有更好的方法来实现这一点。我只是想将张量生成的检查点文件转换为原型缓冲区。
谢谢
machine-learning - 关于tensorflow分布式训练示例的问题
我正在研究分布式tensorflow示例:tensorflow分布式训练代码模板 它是一个图间副本和异步训练示例模板。
我还发现了以下代码示例,它遵循相同的方式(图之间,异步)。这个示例来自murry 的回答。我将其粘贴在下面以帮助我表达我的问题:
1,在这个例子中,假设我有两个工作任务和两个 ps 任务,是否所有的变量:hid_w,hid_b,sm_w,sm_b...
都放在参数 server(ps) 设备上?如果是,则展示位置是否遵循循环方式(hid_w
to ps/task:0
, hid_b
to ps/task:1
, sm_w
to ps/task:0
, sm_b
to ps/task:1
.... )
2,如果我想实现同步复制训练,我可以tf.train.SyncReplicasOptimizer
作为一个包装器。但是,tf.train.SyncReplicasOptimizer
只能基于Optimizer
诸如tf.train.AdagradOptimizer
和的梯度下降进行包装tf.train.GradientDescentOptimizer
。我的问题是如何实现像K-means这样不使用任何算法的同步训练Optimizer
?; 有没有什么方法可以实现同步训练tf.train.SyncReplicasOptimizer
tensorflow - 使用 bazel 构建 tensorflow-serving 时 swig_import_helper 和 PyModule_Create2 出错
我正在尝试使用 bazel 安装 tensorflow-serving,当我运行时
构建源代码树,我得到这个错误:
我该怎么办?
我正在运行 python 3.5、gcc/g++ 4.9、CUDA 8.0,安装了 swig,并且正在尝试使用 GTX 1080 在 Ubuntu Mate 16.04 上构建。
谢谢!
tensorflow - 无法构建 Tensorflow Serving 的 master
我已经从源代码、CUDA 8.0、python 3.5、Ubuntu 16.04 构建了 Tensorflow,目标是 NVIDIA 1070,它运行良好。
Python 3.5.2(默认,2016 年 7 月 5 日,12:43:10)[GCC 5.4.0 20160609] 在 linux 上键入“帮助”、“版权”、“信用”或“许可证”以获取更多信息。
import tensorflow as tf I tensorflow/stream_executor/dso_loader.cc:108] 本地成功打开 CUDA 库 libcublas.so.8.0 我 tensorflow/stream_executor/dso_loader.cc:108] 本地成功打开 CUDA 库 libcudnn.so.5 我 tensorflow/stream_executor /dso_loader.cc:108] 本地成功打开 CUDA 库 libcufft.so.8.0 我 tensorflow/stream_executor/dso_loader.cc:108] 本地成功打开 CUDA 库 libcuda.so.1 我 tensorflow/stream_executor/dso_loader.cc:108] 成功在本地打开 CUDA 库 libcurand.so.8.0
但是,当尝试从源代码构建 tensorflow_serving 时,它总是会失败:
块引用文件“/home/alitz/.cache/bazel/_bazel_alitz/7318bb8e61ee048c2d10c9f8fb67c783/execroot/serving/bazel-out/host/bin/external/org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.runfiles/tf_serving/../ org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.py”,第 115 行,在 tf.app.run() 文件中“/home/alitz/.cache/bazel/_bazel_alitz/7318bb8e61ee048c2d10c9f8fb67c783/execroot/serving/bazel-out/ host/bin/external/org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.runfiles/org_tensorflow/tensorflow/python/platform/app.py”,第 30 行,运行 sys.exit(main(sys.argv)) 文件“/家/阿利兹/。缓存/bazel/_bazel_alitz/7318bb8e61ee048c2d10c9f8fb67c783/execroot/serving/bazel-out/host/bin/external/org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.runfiles/tf_serving/../org_tensorflow/tensorflow/contrib/session_bundle/example /export_half_plus_two.py”,第 111 行,在主 Export() 文件中“/home/alitz/.cache/bazel/_bazel_alitz/7318bb8e61ee048c2d10c9f8fb67c783/execroot/serving/bazel-out/host/bin/external/org_tensorflow/tensorflow/contrib/ session_bundle/example/export_half_plus_two.runfiles/tf_serving/../org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.py”,第 106 行,在 Export assets_callback=CopyAssets) 文件“/home/alitz/.缓存/bazel/_bazel_alitz/7318bb8e61ee048c2d10c9f8fb67c783/execroot/serving/bazel-out/host/bin/external/org_tensorflow/tensorflow/contrib/session_bundle/example/export_half_plus_two.runfiles/org_tensorflow/tensorflow/contrib/session_bundle/exporter.py”,行202, init graph_any_buf.Pack(copy) AttributeError: 'Any' object has no attribute 'Pack' Blockquote
任何帮助将不胜感激,否则我将辞去工作并开始施工。
谢谢。
machine-learning - variable_ops_scope 和 variable_scope 有什么区别?
在 TensorFlow 中,有两个作用域函数:variable_ops_scope
和variable_scope
. 第一个签名如下:
第一个参数values
是什么意思?default_name
is 只在name_or_scope
is时使用None
,那么为什么这个函数需要带这两个参数呢?一个参数就足够了。
一般来说,这两个范围之间有什么区别?
tensorflow - 分发张量流演示
最近tensorflow增加了distribute training模块,distribute的前置要求是什么?我的意思是这样的环境,
它已经发布了示例代码:
有没有办法运行 tensorflow 集群示例,当只有 hdfs 而没有任何共享文件系统时,模型文件存储在哪里?
python - Tensorflow 服务于重新训练的初始阶段
我正在尝试按照本指南为我重新训练的初始模型提供服务(您也可以查看本指南,其中解释了如何重新训练初始模型)。我修改了 retrain.py来导出我的模型,如下所示:
导出模型后,我开始运行服务器:
服务器日志文件 (inception_log) 包含:
最后,我运行客户端并收到以下错误:
在此问题上的任何建议或指导将不胜感激。
gcloud - 如何从部署在 gcloud 中的 Nodejs 中查询 Tensorflow Inception Serving 模型
我想按照官方教程https://tensorflow.github.io/serving/serving_inception.html从我部署在 gcloud/kubernet 上的 Web 服务器查询 tensorflow inception 微调模型。
我完成了所有步骤,并且可以在本地查询远程服务器$ bazel-bin/tensorflow_serving/example/inception_client --server=146.148.88.232:9000 --image=/path/to/my_cat_image.jpg
。
我不明白如何从网络服务器(nodejs、Rails、flask..)查询服务器。
tensorflow - 当行数未知时,张量流将(结构化)密集矩阵转换为稀疏矩阵
我的任务是将特殊形成的密集矩阵张量转换为稀疏矩阵张量。例如,输入矩阵 M 如下(密集的正整数序列后跟 0 作为每一行中的填充)
此外,给定每行的非填充长度,例如由张量 L =
所需的输出将是稀疏张量 S。
这在对象由可变大小的描述符描述的模型中很有用(然后在 embedding_lookup_sparse 中使用 S 来连接描述符的嵌入。)
当 M 的行数已知时(通过 python 循环和像 slice 和 concat 这样的操作),我能够做到这一点。但是,此处 M 的行号由小批量大小决定,并且可能会发生变化(例如在测试阶段)。有没有好的方法来实现它?我正在尝试一些 control_flow_ops 但没有成功。
谢谢!!
python - TensorFlow REST 前端,但不是 TensorFlow Serving
我想部署一个简单的 TensorFlow 模型并在 Flask 等 REST 服务中运行它。到目前为止在 github 或这里没有找到好的例子。
我还没有准备好按照其他帖子中的建议使用 TF Serving,它对 Google 来说是完美的解决方案,但对于我的 gRPC、bazel、C++ 编码、protobuf 任务来说,它过大了……