问题标签 [automl]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
api - Google Cloud AutoML API REST 调用
我正在尝试通过 Postman 向 Google Cloud AutoML API 发送一个简单的请求,并且我一直在阅读此处的文档:https ://cloud.google.com/vision/automl/docs/reference/rest/ v1beta1/projects.locations.datasets/get
在页面上,它说 REST 端点应该是这样的:
获取https://automl.googleapis.com/v1beta1/ {name}
其中 name 是“要检索的数据集的资源名称”。
资源名称到底是什么?
我的 Google Cloud AutoML 中有一个数据集,我将数据集的名称放在 {name} 部分的位置,但我不断收到“404 错误”。
我似乎无法在网上找到实际向 Google AutoML 发送 REST api 调用的示例。任何帮助是极大的赞赏。谢谢!
automl - google automl 会自动进行图像增强吗?
我正在使用来自谷歌的 automl 使用自定义数据集。数据集由我收集的图像组成。但是,手动标记图像需要一些时间,所以我想通过图像增强来扩大数据集,例如旋转和模糊。automl 是否自动在屏幕后面执行增强?
firebase - Google AutoML Vision - 如何调用多个预测
我正在创建一个基于 Google 的 I/O '17 演示文稿的 Firebase 托管网络应用程序,其中 Google 的 AutoML Vision 可以拍摄云图,并根据其机器学习培训告诉您它是什么类型的云。我使用的代码只允许一次调用,我认为这是由于以下代码:
从我从谷歌的文档中可以看出,[0] 对应于 annotateImageID。代码传递 0 的问题是 webapp 无法获得对多个图像的预测。
下面是调用结果推送到 webapp 的整个代码部分:
go - Golang 和 gcloud API:如何获取身份验证令牌
因为 Google AutoML 没有 golang 客户端,所以我必须使用 AutoML http 客户端。为此,需要来自 google 的身份验证令牌,该令牌来自运行以下 cli 命令:
我目前正在使用可以访问 AutoML 的凭据 json 文件来验证我的 Golang 服务器(示例用法)
我的问题是:如果我有 JSON 凭据文件,我将如何从 Golang Google 客户端获取身份验证令牌?这甚至可能吗?
感谢您的任何帮助!
authentication - 在 Google Cloud AutoML 上向其他用户提供访问权限时出错
我正在使用一项名为 Google Cloud AutoML 自然语言处理的服务。单击此处了解有关我正在使用的产品的更多信息:
https://beta-dot-custom-vision.appspot.com/text/overview
一切正常,我不得不说这个产品很棒!我设法在几个小时内训练了一个机器学习模型并做出了一些预测。
现在,我想为我组织中的另一个用户提供访问该产品用户界面的权限,以便该用户可以做出自己的预测。
我连接到 Google Cloud 控制台,创建了用户并为他分配了三个角色,这与服务帐户所需要的角色相同,以便访问该服务。
现在,当用户尝试连接到此服务的 UI 时,他会收到一个带有以下错误消息的白页:
“处理您的请求时出现异常。报告时通过其跟踪代码 tc_571165 引用此问题”
谷歌云控制台中没有更多信息,也没有任何问题的痕迹。我错过了什么?谷歌的这项服务仍处于测试阶段,因此可能只是一个错误。谢谢你的帮助
javascript - AutoML 自然语言 Node.js API 调用给出“bad base64 decode”错误
我正在为 Node.js 使用 Google 的 AutoML 自然语言 API。一切都很好,除了一个特定的服务帐户和用户(我的一个学生)。她收到以下错误:
身份验证错误:错误:错误:0906D064:PEM 例程:PEM_read_bio:bad base64 decode { 错误:14 UNAVAILABLE:从插件获取元数据失败并出现错误:错误:0906D064:PEM 例程:PEM_read_bio:在 Object.exports.createStatusError 处错误的 base64 解码( /home/ubuntu/workspace/functions/node_modules/grpc/src/common.js:87:15) 在 Object.onReceiveStatus (/home/ubuntu/workspace/functions/node_modules/grpc/src/client_interceptors.js:1188:28 ) 在 InterceptingListener._callNext (/home/ubuntu/workspace/functions/node_modules/grpc/src/client_interceptors.js:564:42) 在 InterceptingListener.onReceiveStatus (/home/ubuntu/workspace/functions/node_modules/grpc/src/client_interceptors .js:614:8)在回调(/home/ubuntu/workspace/functions/node_modules/grpc/src/client_interceptors.js:841:24)代码:14,元数据:元数据 { _internal_repr: {} },详细信息:'从插件获取元数据失败并出现错误:错误:0906D064:PEM 例程:PEM_read_bio:bad base64 解码'}
产生此错误的代码是:
如果我将project-id、model-id和key-file.json 更改为我自己的,那么这很完美。任何想法是什么原因造成的?
h2o - h2o automl max_runtime_secs 没有停止执行
敬启者,
下面的代码在基于 jupyter 的数据科学笔记本的 Docker 容器中运行;但是,我已经安装了 Java 8 和 h2o(版本 3.20.0.7),并公开了必要的端口。docker 容器在使用 Ubuntu 16.04 的系统上运行,具有 32 个线程和超过 300G 的 RAM。
h2o 正在使用所有线程和 26.67 Gb 内存。我试图使用下面的代码将文本分类为 0 或 1。
然而,尽管将 max_runtime_secs 设置为 900 或 15 分钟,但代码尚未完成执行,大约 15 小时后仍占用大部分机器资源。附带说明一下,解析 df_train 大约需要 20 分钟。对出了什么问题有任何想法吗?
android - 在 Android 应用中使用 AutoML Vision REST API
我想在 Android 应用程序中使用 AutoML Vision REST API。
使用 API 进行身份验证的推荐方法是通过服务帐户。
另一种选择是使用 OAuth2.0。
那么如何在 Android 应用程序中使用服务帐户身份验证或 OAuth2.0 是唯一的选择?
另外,建议是否有任何其他方法可以通过简洁紧凑的代码来实现这一点。
api - AutoML API 设置问题
我想我遇到了 AutoML API 设置的麻烦。请找到以下网址
https://cloud.google.com/vision/automl/docs/tutorial#tutorial-vision-dataset-python
创建步骤
- 我在 GCP 中创建具有 AutoML 编辑器和管理员角色的 AutoML 服务帐户
我完成了教程中的步骤并坚持以下传递参数
/li>
以下错误显示
请为我找到解决方案。太感谢了。
python - 在 auto-sklearn 中使用 refit() 进行增量学习
我有一个包含 50k 行和 10k 列的大型数据集。我正在尝试使用 auto-sklearn 中的分类器来拟合这些数据。由于资源有限,我将数据分批,打算使用增量学习。是否可以使用 autosklearn.classification.AutoSklearnClassifier。fit()在第一批之后是 autosklearn.classification.AutoSklearnClassifier。refit()在其余批次上?API 文档说:
改装(X, y)
将找到的所有模型重新拟合到新数据。使用交叉验证时是必需的。在训练期间,auto-sklearn 在数据集上拟合每个模型 k 次,但不保留任何经过训练的模型,因此不能用于预测新数据点。此方法适合在调用期间找到的所有模型以适合给定的数据。这种方法也可以与holdout一起使用,以避免只使用66%的训练数据来拟合最终模型。参数:
X :形状的类数组或稀疏矩阵 = [n_samples, n_features] 训练输入样本。y :类数组,shape = [n_samples] 或 [n_samples, n_outputs] 目标。
这是否意味着 refit 仅在对原始数据使用交叉验证时才有效,还是第一行意味着后续批次的数据可以在同一模型上重新训练?
有什么想法/想法吗?