问题标签 [google-cloud-ai]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-platform - 如何提高在 Google Cloud 上提交的作业的优先级(以减少排队时间)
在 Google Cloud 上,我提交了很多排队的作业;有时这些工作需要很长时间才能开始。我可以指定关键作业的优先级,以便它们立即启动或以更高的优先级启动。
我正在使用的命令之一是
google-cloud-platform - 谷歌云 GPU 所有区域配额增加请求被拒绝
我已经创建了我的谷歌云帐户,默认情况下所有区域的 GPU 配额为 0。所以我提交了多个增加配额的请求,但他们甚至没有批准一个。我尝试联系销售人员,但即使他们拒绝了请求。有什么方法可以让该请求获得批准?我已经升级了我的帐户。添加了账单明细。添加 500 卢比作为提前付款选项。仍有大约 19,500 卢比的积分剩余。
gcloud - Google Cloud AI Platform:我无法使用“--accelerator”参数创建模型版本
为了获得在线预测,我正在 ai 平台上创建模型版本。除非我想使用 --accelerator 参数,否则它工作正常。
这是有效的命令:
这是使它不起作用的参数:
这是我收到的错误消息:
我希望它能够工作,因为 1)参数存在并使用这两个键(计数和类型),2)我对参数使用正确的语法,任何其他语法都会返回语法错误,以及 3)“nvidia- tesla-k80" 值存在(在 --help 中描述)并且在部署模型的区域中可用。
tensorflow - 如何在谷歌云平台上运行预测时减少 mask-RCNN 训练模型的输入大小
我正在尝试使用 Google AI Platform 预测来使用 Mask RCNN 执行对象识别。在花了将近两周的时间后,我能够:
- 了解如何在 Google Cloud 上进行培训
- 将模型从 h5 转换为 AI 平台所需的 SavedModel 格式
- 创建 AI 平台模型并在那里部署经过训练的模型。
现在,我正在尝试执行预测,它说我的输入大小超过了 1.5 MB,这是输入的最大大小。当我检查它时,将图像(大小为 65KB)转换为预测所需格式的代码使输入文件变为 57MB。
我不知道如何在成型时将 64 KB 的图像文件转换为 57 MB 的 json 文件。我想知道如何减少这种情况?不确定我是否做错了什么。
我尝试使用 gcloud local predict 执行本地预测,并且能够获得 57MB 文件的响应。所以,这意味着文件是正确的。
我尝试将图像的最大尺寸设置为 400X400,从而将文件大小从 57MB 减少到大约 7MB。这仍然很高。我不能继续减少它,因为它会导致信息丢失。
python - Google AI Platform:内核死机
我正在尝试在 Google Cloud AI Platform 上的笔记本中运行一个简单的 Python 脚本来进行数据清理。
笔记本电脑有 4 个 CPU 和 15GB RAM。我尝试清理不同大小的数据块,从 10GB 到 200MB,问题仍然存在:内核不断死亡。我不断收到以下错误消息:
GCAM 整理的文件保存错误 1219.ipynb 错误 504(网关超时)!!1 {margin:0;padding:0}html,code{font:15px/22px arial,sans-serif}html{background:#fff; color:#222;padding:15px}body{margin:7% auto 0;max-width:390px;min-height:180px;padding:30px 0 15px}> body{background:url(//www.google.com/images/errors/robot.png) 100% 5px no-repeat;padding-right:205px}p{margin:11px 0 22px;overflow:hidden}ins{ color:#777;text-decoration:none}a img{border:0}@media screen and (max-width:772px){body{background:none;margin-top:0;max-width:none;padding- right:0}}#logo{background:url(//www.google.com/images/logos/errorpage/error_logo-150x54.png) no-repeat;margin-left:-5px}@media only screen and (min -resolution:192dpi){#logo{background:url(//www.google.com/images/logos/errorpage/error_logo-150x54-2x.png) 无重复 0% 0%/100% 100%;-moz -border-image:url(//www.google.com/images/logos/errorpage/error_logo-150x54-2x.png) 0}}@media only screen and (-webkit-min-device-pixel-ratio:2 ){#logo{background:url(//www.google.com/images/logos/errorpage/error_logo-150x54-2x.png) no-repeat;-webkit-background-size:100% 100%}}#logo{display:inline-block;height:54px;width:150px}
504.这是一个错误。
我们知道的就这些。
解雇
我使用的脚本只使用熊猫。我试图通过收集垃圾和删除不再需要的变量来提高我的代码效率。
任何想法为什么会不断发生此错误将不胜感激!
python - 加载预训练的 keras 模型以在谷歌云上继续训练
我正在尝试加载预训练的 Keras 模型,以便在谷歌云上继续训练。它在本地工作,只需加载鉴别器和生成器
但显然这在谷歌云上不起作用,我尝试使用与从谷歌存储桶中读取训练数据相同的方法,使用:
但是,这似乎不适用于加载模型,运行作业时出现以下错误。
ValueError:allow_pickle=False 时无法加载包含腌制数据的文件
添加allow_pickle=True
,引发另一个错误:
OSError:无法将文件 <_io.BytesIO object at 0x7fdf2bb42620> 解释为泡菜
然后我尝试了一些我发现的东西,因为有人建议我解决类似的问题,据我所知,它会暂时从存储桶中重新保存模型本地(相对于作业运行的位置),然后加载它,使用:
但是,这会引发以下错误:
TypeError:预期的二进制或 unicode 字符串,得到 tensorflow.python.lib.io.file_io.FileIO 对象
我必须承认,我不确定我需要做什么才能从我的存储桶中实际加载预训练的 keras 模型,以及在我在谷歌云的培训工作中的用途。任何帮助都深表感谢。
google-cloud-platform - 谷歌人工智能平台与机器学习引擎
google ai platform
我做了很多搜索,但我不明白和之间有什么区别ml engine
。
似乎它们都可以用于训练和部署模型。
google-cloud-automl、google ai hub等其他词也很混乱。
它们之间有什么区别?谢谢
tensorflow - 在 GCP 上运行 TensorFlow 应用程序的最佳实践?
我希望运行一个使用 Tensorflow 运行模拟并将结果输出到 csv 文件的 Python 应用程序。
我想在 GCP 上运行它。我的计划是使用Tony在 Dataproc 集群中运行它。
似乎有很多 GCP 方法可以做 ML 工作,例如使用AI Platform,我想知道是否有更简单/更好的方法来实现我的目标。
google-cloud-platform - 谷歌 AI 模型服务与 kfsering
我们要做模型服务基础设施。我正在比较Google AI Prediction和kfserving。但是我找不到足够的关于 google ai 服务的特性以及它是如何实现的文档。
似乎gcloud ai-platform versions create
可以创建模型版本资源并开始服务,这是我能找到的唯一一点。
我有三个问题:
1、google ai服务和kfserving是什么关系?
2、如何gcloud ai-platform versions create
工作?
3、关于google ai服务的功能,google ai服务是否提供https://www.kubeflow.org/docs/components/serving/overview/中列出的所有功能,如canary rollout、explainers、monitoring等?
kubernetes - 使用 Workload Identity 在 Kubernetes 上的 Cloud ML Engine 中的容器中对独立 gsutil 进行身份验证
我正在 Google Cloud AI Training (Cloud ML Engine) 上启动容器映像
在这些容器中,我需要使用 gsutil。一些容器有 gsutil。在这种情况下,我可以立即使用它而无需任何身份验证步骤。
有些容器没有gsutil,所以我必须安装它。问题是安装的 gsutil 不起作用。
当我使用官方cloud-sdk
图像时,gsutil
无需任何身份验证步骤即可工作。
当我使用python:3.7
图像并gsutil
从 PyPI 安装时,它不起作用:
ServiceException: 401 Anonymous caller does not have storage.objects.get access to ...
如何使独立 gsutil 获得所需的凭据?
大多数指南侧重于手动调用gcloud auth
、复制 URL 和复制回令牌。这不是我寻求的解决方案(应该是自动化的)。我知道自动化解决方案是可能的,因为在某些图像gsutil
中是开箱即用的。