问题标签 [google-cloud-ml-engine]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
1375 浏览

tensorflow - 将图形 (pb) 转换为 SavedModel 以用于 gcloud ml-engine predict

根据Google 的 Derek Chow 最近在 Google Cloud Big Data And Machine Learning 博客上的帖子,我使用 Cloud Machine Learning Engine 训练了一个对象检测器,现在我想使用 Cloud Machine Learning Engine 进行预测。

说明包括将 Tensorflow 图导出为 output_inference_graph.pb 的代码,但不包括如何将 protobuf 格式 (pb) 转换为 gcloud ml-engine predict 所需的 SavedModel 格式。

我查看了Google 的 @rhaertel80关于如何转换“Tensorflow For Poets”图像分类模型的答案以及 Google 的 @MarkMcDonald 提供的关于如何转换“Tensorflow For Poets 2”图像分类模型的答案,但似乎都不适用于博客文章中描述的对象检测器图(pb)。

请问如何转换该对象检测器图(pb)以便可以使用它或 gcloud ml-engine 预测?

0 投票
1 回答
542 浏览

google-cloud-ml - 在线预测的高延迟问题

我在 Google 机器学习引擎上部署了一个用于分类的线性模型,并希望使用在线预测来预测新数据。

当我使用 Google API 客户端库调用 API 时,大约需要 0.5 秒才能获得只有一个实例的请求的响应。我预计延迟应该小于 10 微秒(因为模型非常简单),而 0.5 秒太长了。我还尝试使用 predict_proba 方法对新数据进行离线预测。超过 100,000 个实例用了 8.2 秒,这比使用 Google ML 引擎要快得多。有没有办法可以减少在线预测的延迟?发送请求的模型和服务器托管在同一区域中。

我想实时进行预测(API 收到请求后立即返回响应)。Google ML Engine 是否适合此目的?

0 投票
1 回答
1969 浏览

tensorflow - 加载预训练的 word2vec 以初始化 Estimator model_fn 中的 embedding_lookup

我正在解决一个文本分类问题。Estimator我使用我自己的类定义了我的分类器model_fn。我想使用 Google 的预训练word2vec嵌入作为初始值,然后针对手头的任务进一步优化它。

我看到了这篇文章:在 TensorFlow 中使用预训练的词嵌入(word2vec 或 Glove),
它解释了如何在“原始”TensorFlow 代码中进行处理。但是,我真的很想使用这个Estimator类。

作为扩展,我想在 Cloud ML Engine 上训练这段代码,有没有一种很好的方法可以传入具有初始值的相当大的文件?

假设我们有类似的东西:

0 投票
0 回答
1046 浏览

python - 为谷歌云机器学习项目存储图像的最佳方式?

我正在使用带有 Tensorflow 和 Keras 的 Google Cloud Platform 运行机器学习项目。我的数据集中有大约 30,000 张 PNG 图像。当我在本地运行它时,Keras 有很好的实用程序来加载图像,但谷歌云服务需要使用某些库,例如tensorflow.file_io(参见:在 google-cloud-ml 作业中加载 numpy 数组)才能从 GC 存储桶中读取文件。

从 Google Cloud Storage 存储桶加载图像的最佳方式是什么?现在我将它们保存为字节并从一个文件中读取它们,但是能够直接从 GC 存储桶加载图像会很棒。

谢谢,

0 投票
0 回答
286 浏览

python - 为 google-ml-engine 模型获取 tf.placeholder / tf.varaible 值到 tf.Session() 中定义的变量

我正在使用带有 Google ML 引擎的 Tensorflow 进行预测。

为了创建进行预测,我们需要创建一个模型,对其进行训练并将其导出为 .pb 格式以及使用 SaveModel 的其他图元数据。我使用 sklearn (sckiit) 进行算法集成。所以最终模型是 tf 和 sklean 变量的组合

我在将 tf.placeholder / tf.varaible 值获取到 tf.Session() 中定义的变量时遇到了一个小问题。我的示例代码可以在这里找到:

对于上述保存的模型,google ml-engine 'predict' API 调用结果如下;

要求 :

Google ML Engine API - 预测 CMD 输入

响应: Google ML Engine API - 预测 CMD 输出

我的要求是我需要用“input_feedback”变量替换 Google-ML-engine -> predict API 调用输入。尽管我为 "input_feedback" 传递了不同的值,但它总是输出/获取默认值 "[[0,0,0]" 。

我尝试用 tf.placehodler 替换“input_feedback”,并尝试使用 feed_dict = {} 在会话内获取数据,但并没有走得太远。

非常感谢有关如何将 API 调用输入数据正确映射到“input_feedback”的任何反馈/帮助。

0 投票
1 回答
355 浏览

google-cloud-ml-engine - 将 TensorFlow 模型导出到 Google Cloud Storage

我正在尝试将我的模型导出到Google Cloud Storage。我曾经tf.contrib.learn构建我的模型并遵循虹膜分类示例。

完成训练和评估后,我想将模型存储在云端,以便进行预测,但我不知道如何导出模型。

0 投票
0 回答
812 浏览

google-cloud-platform - 谷歌云机器学习引擎在线预测请求的大小限制

我正在尝试向 Cloud ML Engine 发送请求,并且特征向量由 150,000 个浮点值组成。float16精确和序列化使base64我达到 1.8 MB 左右,ML 引擎请求的限制为 1.57 MB(1572864 字节)。

这是 API 的硬性限制吗?有没有办法仍然执行在线请求,或者特征向量对于服务来说太大了?

0 投票
1 回答
107 浏览

google-cloud-ml-engine - Google-cloud-ml-engine 内部错误

几天来,我一直在 ML-Engine 上运行不同的作业。突然之间,我在配置工作之前开始收到内部错误。

错误是内部的,并且可以在图像中看到作业重试自行配置:https ://i.stack.imgur.com/AVrkL.png

处理区域与以前和本地相同,工作正常。这可能是服务器端的临时错误吗?

0 投票
1 回答
141 浏览

google-cloud-ml-engine - 带有 GPU 工人错误的 ML-Engine

嗨,我正在使用 ML Engine 和一个自定义层,该层由一个 complex_m 主控器、四个工作器、一个 GPU 和一个 complex_m 作为参数服务器组成。

该模型正在训练一个 CNN。但是,工人似乎有麻烦。这是日志https://i.stack.imgur.com/VJqE0.png的图像。

主服务器似乎仍在工作,因为正在保存会话检查点,但是,这已经接近应有的速度。

使用 complex_m 工人,该模型有效。它只是在开始时等待模型准备好(我假设它是直到主初始化全局变量,如果我错了,请纠正我)然后正常工作。然而,对于 GPU,任务似乎存在问题。

我没有在任何地方使用 tf.Device() 函数,在云中我认为如果 GPU 可用,设备会自动设置。

我按照人口普查示例并加载了 TF_CONFIG 环境变量。

然后在定义主图之前使用 tf.replica_device_setter。

作为一个会话,我正在使用 tf.train.MonitoredTrainingSession,这应该处理变量的初始化和检查点保存。我不知道为什么工人说变量没有初始化。

需要初始化的变量都是变量:https ://i.stack.imgur.com/hAHPL.png

优化器:AdaDelta

感谢您的帮助!

0 投票
0 回答
500 浏览

tensorflow - TensorFlow 多种导出策略

我正在使用Experiment 类训练模型,尽管文档似乎建议您可以有多个导出策略:

export_strategies:ExportStrategys 的可迭代,或单个,或无。

当我包含两个时,在使用 ml 引擎进行训练时出现错误:

使用make_export_strategy 函数时,没有指定导出目录的选项。

我是否以错误的方式处理这个问题?最终,我希望人们能够使用 CSV 和 JSON 输入向同一模型发出预测请求。