1

随着谷歌最近发布了集成了所有 MLOps 平台的Vertex AI ,我想知道在 GKE 与 Vertex AI(或 AI Platform Unified,因为刚刚进行品牌重塑并且 AI Platform 已经提供服务模型预测的能力)。

我做了很多研究,但发现的信息很少。我已经在 GKE 上托管了我的 ML 模型,是否值得迁移到 Vertex AI?

注意:我不打算在云上进行培训和其他数据预处理。

4

2 回答 2

3

值得将 Vertex AI 考虑为:

Vertex AI 是一个“<strong>托管”ML 平台,供从业者加速实验和部署 AI 模型。在部署/训练/预测 ML 模型时,我们不需要管理基础设施/服务器/健康。Vertex AI 会根据流量为您解决这个问题。

有助于考虑 Vertex AI 的一些关键特性:

  1. Vertex AI 简化模型开发

训练模型后,我们将获得详细的模型评估指标和特征属性。(特征归因告诉模型中的哪些特征最能代表模型的预测,从而深入了解模型在幕后的表现)

  1. 具有端点的可扩展部署

训练模型后,可以将其部署到端点。模型之间的流量可以拆分进行测试,也可以自定义机器类型

  1. 使用 Vertex 管道编排工作流

顶点管道有助于避免模型周围环境发生变化时可能发生的模型漂移概念。顶点管道可以帮助自动化这个保留工作流程。

  1. 使用 Vertex AI 监控部署的模型

顶点模型监控可用于检测漂移和训练服务倾斜等问题,因此与其手动检查以确保模型仍然正确执行,不如使用顶点 AI 提供对模型可靠性的信心,因为我们会在任何时间发生变化时收到警报.

于 2021-06-15T14:09:29.217 回答
0

我也一直在探索使用 Vertex AI 进行机器学习。在从自定义容器提供模型预测时,我发现一些有用的点如下:

  • 从 Vertex AI 上的自定义容器提供预测,而不是 GKE 集群,让您从管理基础设施中解放出来。在成本方面,与 Vertex AI 相比,GKE 自动驾驶集群似乎更昂贵,但 GKE 标准模式的差异并不那么明显。用于标准模式的计算引擎定价低于类似 Vertex AI 节点的价格,但标准模式会增加集群管理费用。
  • 我没有深入研究过 AI Platform,但是在 Vertex AI 中,唯一可用的预测机器类型是“N1”,它不能缩小到 0,至少 1 会一直运行。从成本的角度来看,这是一个重要问题,特别是如果您部署多个模型,因为每个模型都有自己的关联节点,独立于其他模型,并且节点的缩放也发生在节点级别。虽然有一些变通方法,以便能够从单个节点为多个模型提供服务,但我越是转向自定义模型和此类变通方法,Vertex AI 的唯一优势似乎就是不必管理预测服务基础设施。通常,当有人使用自定义预测容器时,需要进行大量的预处理和后处理。所有这些逻辑都包含在自定义容器中。我仍在阅读文档,但根据我目前所见,如果使用 AutoML 模型,许多 Vertex AI 功能(例如模型监控、可解释 AI)似乎非常简单,而如果您使用自定义模型,则需要进行一些配置要完成。这种配置有多简单,我还没有弄清楚。
于 2021-11-11T20:39:28.223 回答