问题标签 [seldon]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
kubernetes - Kubeflow Pipeline in serving model
I'm beginning to dig into kubeflow pipelines for a project and have a beginner's question. It seems like kubeflow pipelines work well for training, but how about serving in production?
I have a fairly intensive pre processing pipeline for training and must apply that same pipeline for production predictions. Can I use something like Seldon Serving to create an endpoint to kickoff the pre processing pipeline, apply the model, then to return the prediction? Or is the better approach to just put everything in one docker container?
kubernetes - 如何正确配置以接收 Seldon Core python 客户端中的预测结果?
我正在检查 Minikube 上的 Seldon Core,并已成功在集群上部署了模型。我用下面的代码进行了测试:
并得到如下所示的正确预测结果。
但是,当我尝试使用 python 客户端时,
我得到了这个错误。
有人可以帮我找出问题所在吗?
continuous-integration - ML 模型部署 CI/CD
我在 DataBricks 上使用 MLFlow 训练模型,并将最终模型输出到 S3。然后,使用 Seldon-Core 将模型打包并部署到 AWS EKS。
我正在寻找通过从 S3 获取模型、将其打包到 docker 容器中并使用 Seldon-Core K8S 模板将其推送到 AWS EKS 来弥合差距的工具。
我相信似乎适合这项工作的工具是 Kubeflow Pipelines。其他竞争者是 Jenkins、Gitlab 和 TravisCI。
Kubeflow 是绝对适合这项工作的工具吗? Kubeflow 与其他人相比有哪些优缺点?如果有人已经做过研究,甚至可能建造了管道......
kubernetes - 在 Seldon Core 上将模型 A 的输出路由为模型 B 的输入
我正在测试 Seldon Core,想知道是否有一种简单的方法可以将模型 A 的输出路由为 Seldon Core 上模型 B 的输入。最佳做法是什么?
python - 如何让 Seldon Sklearn 服务器与 GKE 的 Google Cloud Storage 一起使用
需要了解如何使 seldon 使用预先打包的 python 泡菜和服务器。
遵循seldonio 网站上关于 sklearn 服务器的说明后,我仍然无法让预定义的服务器模型正常工作。
我将虹膜模型放在谷歌云存储的位置 - > gcs://mymodels/sklearn/iris.pkl
我在 gke 上成功安装了 seldon-core 并成功运行了一个包装模型示例。现在我希望能够使用可以从谷歌云存储中获取 python-pickles 的预打包服务器。当我为 SeldonDeplymentObject 指定位置时,服务永远不会出现,并且 pod 继续死亡。
这是我的 SeldonDeployment:
我在 gke 和 gcs 上设置什么来完成这项工作?
scikit-learn - Seldon SKLearn 服务器是否支持 SVC 模型?
我正在尝试使用 Sklearn 模型部署 Seldon 部署。该模型是一个 SVC 分类器。
Seldon 分类器失败并出现 ModuleNotFoundError: No module named 'sklearn.svm._classes'
Seldon SKLearn 服务器是否支持 SVC 模型?这里出了什么问题?
任何提示都会有所帮助。
prometheus - Istio 1.1.6 - PassthroughCluster - 未到达端点
我正在使用Istio 1.1.6、Prometheus 2.18.1和Seldon 1.1.0(用于机器学习);当 Prometheus 尝试抓取端点时,我们对 Istio ConfigMap 进行了以下设置:
根据文档,这应该允许 Prometheus 抓取任何没有关联服务的端点(通过 VirtualServices)。但是,我一直收到以下警报,爆破访问日志:
现在,当我 bash-exec 进入 pod 内的容器时,目的地localhost:6001
是可访问的,并且已格式化以供 Prometheus 抓取。
此外,DestinationRule
没有短路限制:
Istio 似乎阻止了这一点的原因可能是什么?
kubernetes - ML Model pod 在 Seldon 部署中不断重启
我有一个像这样的 Seldon 部署:
模型已从服务器成功下载,但一段时间后,pod 会进入状态crashloop
并一次又一次地重新启动。
当我看到日志时,没有错误,因为日志已经重新启动,我只能看到 python 包是如何下载的。
现在,尝试使用-p
@arghya-sadhu 提出的参数:
以及吊舱的描述:
如何禁用重新启动,以便检查日志以查看实际错误?
kubernetes - 为什么一次很少的部署有两种服务
我注意到每当我部署一个模型时,都会有两种服务,例如
我想知道为什么我们有两个而不是一个。
三个端口(8000、9000、5001)分别是干什么用的?我应该使用哪一个?
清单 yaml 是
来自https://docs.seldon.io/projects/seldon-core/en/v1.1.0/workflow/quickstart.html
CRD 定义似乎在这里,以防万一它有用。
所以只涉及一个 pod,我认为这些端口是从不同的容器映射的:
一个更罕见的问题是为什么需要这么多端口?