问题标签 [google-cloud-vertex-ai]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-cloud-platform - Vertex AI 自定义容器批量预测
我创建了一个用于预测的自定义容器,并将模型成功上传到 Vertex AI。我还能够将模型部署到端点并成功地从端点请求预测。在自定义容器代码中,我使用此处parameters
描述的字段,然后在发出在线预测请求时提供该字段。我的问题是关于从自定义容器请求批量预测以进行预测。
我找不到任何文档来描述当我请求批量预测时会发生什么。例如,我使用
my_model.batch_predict
Python SDK 中的函数并将 设置instances_format
为“csv”并提供gcs_source
. 现在,我已经将我的自定义容器设置为预期的预测请求,/predict
如本文档中所述。Vertex AI 是否向此路径发出 POST 请求,将 cvs 数据转换为适当的 POST 正文?如何
parameters
像在线预测一样为批量预测指定字段?
google-cloud-ml - 将 tensorboard 日志从云存储上传到顶点 ai - tensorboard
我用 vertex ai 创建了一个管道,并添加了用于在云存储中创建和存储我的 tensorboard 日志的代码。https://cloud.google.com/vertex-ai/docs/experiments/tensorboard-overview#getting_started说明中的下一步是使用 tb-gcp-uploader 命令将日志上传到 tensboard 实验页面。但我收到此消息“'tb-gcp-uploader' 未被识别为内部或外部命令”。有什么想法吗?
python - 如何将 kfp Artifact 与 sklearn 一起使用?
我正在尝试使用 Vertex AI(谷歌云平台)内的 kubeflow 管道(kfp)组件开发一个自定义管道。管道的步骤是:
- 从大查询表中读取数据
- 创建熊猫
DataFrame
- 使用
DataFrame
训练 K-Means 模型 - 将模型部署到端点
这是第 2 步的代码。我必须使用Output[Artifact]
作为输出,因为pd.DataFrame
我在这里找到的类型不起作用。
这里是第 3 步的代码:
由于以下错误,管道的运行已停止:
是否可以将 Artifact 转换为numpy array
or Dataframe
?
google-cloud-platform - Vertex AI 自定义预测与 Google Kubernetes Engine
我一直在探索将 Vertex AI 用于我的机器学习工作流程。因为在 Vertex AI 中无法仅使用一个节点将不同的模型部署到同一端点,所以我正在考虑一种解决方法。通过这种解决方法,我将无法使用许多 Vertex AI 功能,例如模型监控、特征归因等,而且我认为它只是在 GKE 集群上运行预测应用程序的托管替代方案。因此,除了成本差异之外,我正在探索在 Vertex AI 与 GKE 上运行自定义预测容器是否会涉及任何限制,例如,在 Vertex AI 中只有N1机器类型可用于预测
有一个类似的问题,但我没有提出我希望回答的具体问题。
- 我不确定可用的磁盘空间。在 Vertex AI 中,可以指定机器类型,例如 n1-standard-2 等,但我不确定可用的磁盘空间以及是否/如何指定它?在自定义容器代码中,我可能会在处理多个模型工件或来自外部源的数据之前将它们复制到本地目录,因此了解任何磁盘空间限制非常重要。
- 对于 Vertex AI 中的自定义训练,可以使用交互式 shell 来检查运行训练代码的容器,如此处所述。对于自定义预测容器,这样的事情可能吗?我在文档中没有找到任何东西。
- 对于自定义培训,可以使用私有 IP 进行自定义培训,如此处所述。同样,我在文档中没有发现任何类似的自定义预测,这可能吗?
如果您知道任何其他可能的限制,请发布。
google-cloud-platform - 在 Google vertex ai 上创建自定义模型
我应该使用 Google 的托管 ML 平台 Vertex AI 来为实习构建端到端的机器学习工作流程。尽管我完全按照教程进行操作,但是当我运行训练作业时,我看到了以下错误消息:
根据教程,我们不应该在存储桶中有 /model 目录。模型应该创建这个目录并将最终结果保存在那里。
我添加了这个目录,但仍然面临这个错误。有没有人有任何想法,提前谢谢:)
google-cloud-platform - Vertex AI 返回与本地 tflite 模型不同的结果
我在 Vertex AI 上上传了我的 tflite 模型并创建了一个端点,我请求使用一些输入值进行推理,但它返回的结果与我的本地 tflite 模型的推理结果不同。
输入值是 float32 数组(实际上是采样的音频数据),我将此代码用于请求。虽然输入数组相同,但是本地 tflite 模型和 Vertex AI 上传的模型返回的结果相差很大。
传输到 Vertex AI 实例时,值是否存在失真的可能性?
python - VertexAI Pipeline:如何使用自定义 kfp 组件的输出作为 google_cloud_pipeline_components 的输入?
我正在尝试使用 kfp 组件为 VertexAI 中的管道编写 Python 代码。我有一个步骤,我创建了一个 system.Dataset
对象,如下所示:
然后我使用数据集作为输入AutoMLTabularTrainingJobRunOp
:
查看日志,我发现了这个错误:
所以,我查看了google/cloud/aiplatform/utils/__init__.py
第 192 行的源代码,发现资源名称应该是:"projects/.../locations/.../datasets/12345"
或"projects/.../locations/.../metadataStores/.../contexts/12345"
。
运行后打开executor_output.json
在我的存储桶中创建的文件,create_dataframe
我发现文件名的格式似乎正确:
{"artifacts": {"dataset": {"artifacts": [{"name": "projects/my_project/locations/my_region/metadataStores/default/artifacts/1299...", "uri": "my_bucket/object_folder", "metadata": {"name": "reshaped-training-dataset"}}]}}}
我还尝试为元数据中的数据集设置一个人类可读的名称,但我没有工作。任何建议都会非常有帮助。
google-cloud-platform - 请检查具有相同名称的管道是否先前已提交到不同的端点
每当我尝试使用 vertex-ai 管理的 Jupiter notebook 运行管道作业时,我都会遇到错误。
在这里,我通过在管道名称字符串中附加时间戳来确保每次都创建一个唯一的管道名称。例如,我的显示名称AutoML-Pipeline-DS-v4-1637251623
仍然像我收到的错误一样 Please check if pipelines with the same name were previously submitted to a different endpoint.
这里我google-cloud-aiplatform==1.4.3
用来运行管道作业。另外,我正在遵循 GCP 的这个例子。
google-cloud-platform - Vertex AI - 无法创建托管笔记本实例
我正在遵循文档中的所有(简单)步骤,但我坚持点击“创建”按钮。当我单击它时,该过程会运行几秒钟,然后按钮重新出现,就像我从未单击它一样。
如果我返回“托管笔记本”页面,则不存在任何实例。
我错过了一些基本的东西吗?有没有人和我一样的问题?