问题标签 [google-cloud-ml-engine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 将图形 (pb) 转换为 SavedModel 以用于 gcloud ml-engine predict
根据Google 的 Derek Chow 最近在 Google Cloud Big Data And Machine Learning 博客上的帖子,我使用 Cloud Machine Learning Engine 训练了一个对象检测器,现在我想使用 Cloud Machine Learning Engine 进行预测。
说明包括将 Tensorflow 图导出为 output_inference_graph.pb 的代码,但不包括如何将 protobuf 格式 (pb) 转换为 gcloud ml-engine predict 所需的 SavedModel 格式。
我查看了Google 的 @rhaertel80关于如何转换“Tensorflow For Poets”图像分类模型的答案以及 Google 的 @MarkMcDonald 提供的关于如何转换“Tensorflow For Poets 2”图像分类模型的答案,但似乎都不适用于博客文章中描述的对象检测器图(pb)。
请问如何转换该对象检测器图(pb)以便可以使用它或 gcloud ml-engine 预测?
google-cloud-ml - 在线预测的高延迟问题
我在 Google 机器学习引擎上部署了一个用于分类的线性模型,并希望使用在线预测来预测新数据。
当我使用 Google API 客户端库调用 API 时,大约需要 0.5 秒才能获得只有一个实例的请求的响应。我预计延迟应该小于 10 微秒(因为模型非常简单),而 0.5 秒太长了。我还尝试使用 predict_proba 方法对新数据进行离线预测。超过 100,000 个实例用了 8.2 秒,这比使用 Google ML 引擎要快得多。有没有办法可以减少在线预测的延迟?发送请求的模型和服务器托管在同一区域中。
我想实时进行预测(API 收到请求后立即返回响应)。Google ML Engine 是否适合此目的?
tensorflow - 加载预训练的 word2vec 以初始化 Estimator model_fn 中的 embedding_lookup
我正在解决一个文本分类问题。Estimator
我使用我自己的类定义了我的分类器model_fn
。我想使用 Google 的预训练word2vec
嵌入作为初始值,然后针对手头的任务进一步优化它。
我看到了这篇文章:在 TensorFlow 中使用预训练的词嵌入(word2vec 或 Glove),
它解释了如何在“原始”TensorFlow 代码中进行处理。但是,我真的很想使用这个Estimator
类。
作为扩展,我想在 Cloud ML Engine 上训练这段代码,有没有一种很好的方法可以传入具有初始值的相当大的文件?
假设我们有类似的东西:
python - 为谷歌云机器学习项目存储图像的最佳方式?
我正在使用带有 Tensorflow 和 Keras 的 Google Cloud Platform 运行机器学习项目。我的数据集中有大约 30,000 张 PNG 图像。当我在本地运行它时,Keras 有很好的实用程序来加载图像,但谷歌云服务需要使用某些库,例如tensorflow.file_io
(参见:在 google-cloud-ml 作业中加载 numpy 数组)才能从 GC 存储桶中读取文件。
从 Google Cloud Storage 存储桶加载图像的最佳方式是什么?现在我将它们保存为字节并从一个文件中读取它们,但是能够直接从 GC 存储桶加载图像会很棒。
谢谢,
python - 为 google-ml-engine 模型获取 tf.placeholder / tf.varaible 值到 tf.Session() 中定义的变量
我正在使用带有 Google ML 引擎的 Tensorflow 进行预测。
为了创建进行预测,我们需要创建一个模型,对其进行训练并将其导出为 .pb 格式以及使用 SaveModel 的其他图元数据。我使用 sklearn (sckiit) 进行算法集成。所以最终模型是 tf 和 sklean 变量的组合
我在将 tf.placeholder / tf.varaible 值获取到 tf.Session() 中定义的变量时遇到了一个小问题。我的示例代码可以在这里找到:
对于上述保存的模型,google ml-engine 'predict' API 调用结果如下;
要求 :
Google ML Engine API - 预测 CMD 输入
响应: Google ML Engine API - 预测 CMD 输出
我的要求是我需要用“input_feedback”变量替换 Google-ML-engine -> predict API 调用输入。尽管我为 "input_feedback" 传递了不同的值,但它总是输出/获取默认值 "[[0,0,0]" 。
我尝试用 tf.placehodler 替换“input_feedback”,并尝试使用 feed_dict = {} 在会话内获取数据,但并没有走得太远。
非常感谢有关如何将 API 调用输入数据正确映射到“input_feedback”的任何反馈/帮助。
google-cloud-ml-engine - 将 TensorFlow 模型导出到 Google Cloud Storage
我正在尝试将我的模型导出到Google Cloud Storage。我曾经tf.contrib.learn
构建我的模型并遵循虹膜分类示例。
完成训练和评估后,我想将模型存储在云端,以便进行预测,但我不知道如何导出模型。
google-cloud-platform - 谷歌云机器学习引擎在线预测请求的大小限制
我正在尝试向 Cloud ML Engine 发送请求,并且特征向量由 150,000 个浮点值组成。float16
精确和序列化使base64
我达到 1.8 MB 左右,ML 引擎请求的限制为 1.57 MB(1572864 字节)。
这是 API 的硬性限制吗?有没有办法仍然执行在线请求,或者特征向量对于服务来说太大了?
google-cloud-ml-engine - Google-cloud-ml-engine 内部错误
几天来,我一直在 ML-Engine 上运行不同的作业。突然之间,我在配置工作之前开始收到内部错误。
错误是内部的,并且可以在图像中看到作业重试自行配置:https ://i.stack.imgur.com/AVrkL.png
处理区域与以前和本地相同,工作正常。这可能是服务器端的临时错误吗?
google-cloud-ml-engine - 带有 GPU 工人错误的 ML-Engine
嗨,我正在使用 ML Engine 和一个自定义层,该层由一个 complex_m 主控器、四个工作器、一个 GPU 和一个 complex_m 作为参数服务器组成。
该模型正在训练一个 CNN。但是,工人似乎有麻烦。这是日志https://i.stack.imgur.com/VJqE0.png的图像。
主服务器似乎仍在工作,因为正在保存会话检查点,但是,这已经接近应有的速度。
使用 complex_m 工人,该模型有效。它只是在开始时等待模型准备好(我假设它是直到主初始化全局变量,如果我错了,请纠正我)然后正常工作。然而,对于 GPU,任务似乎存在问题。
我没有在任何地方使用 tf.Device() 函数,在云中我认为如果 GPU 可用,设备会自动设置。
我按照人口普查示例并加载了 TF_CONFIG 环境变量。
然后在定义主图之前使用 tf.replica_device_setter。
作为一个会话,我正在使用 tf.train.MonitoredTrainingSession,这应该处理变量的初始化和检查点保存。我不知道为什么工人说变量没有初始化。
需要初始化的变量都是变量:https ://i.stack.imgur.com/hAHPL.png
优化器:AdaDelta
感谢您的帮助!
tensorflow - TensorFlow 多种导出策略
我正在使用Experiment 类训练模型,尽管文档似乎建议您可以有多个导出策略:
export_strategies:ExportStrategys 的可迭代,或单个,或无。
当我包含两个时,在使用 ml 引擎进行训练时出现错误:
使用make_export_strategy 函数时,没有指定导出目录的选项。
我是否以错误的方式处理这个问题?最终,我希望人们能够使用 CSV 和 JSON 输入向同一模型发出预测请求。