问题标签 [serving]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
node.js - 无法打开使用 res.send(data)-express 下载的 PDF
我在这段简单的代码中遇到了麻烦:
该文件可以下载,但我无法在浏览器中可视化 PDF。
gpu - gRPC - Accumulate requests from Multiple clients
Let's assume I have multiple clients sending requests to a server (gRPC service). I would like my server to be able to collect, let say 8 requests, process these requests at once, and then only send the result back to the clients. I'm not sure how to do this using GRPC functionalities, or even if it's possible or if I need something else.
context: my use case comes from serving a neural network which is on GPU. In this case, it's much more efficient to batch the input of multiple requests, do one inference, and send the result back rather than do one inference per input.
node.js - res.set('Content-Type','image/jpg') 在节点 js 中提供图像时不起作用
res.set('Content-Type', 'image/jpg') 在节点 js 中为我们提供文件时不起作用。请查看代码此代码有什么问题。我正在从数据库中获取用户值和头像二进制值,但无法在浏览器上看到它。
http://localhost:3000/users/5f8930bba34fd3166c1b3f72/avatar 我在本地服务器上点击这个 URL
以下是我的依赖项:
这是我的用户模型
curl - 使用 curl 将 post 请求发送到 mlflow api 到多条记录
我提供了一个 mlflow 模型,并以这种格式发送 POST 请求:
它正在得分。但是,对于我的特定项目,用于评分的 rest api 的输入将始终是 dataframe/csv 格式的多个记录,而不是单个记录。有人可以指出我如何实现这一目标吗?
php - Nginx 下载 php 内容而不是服务
我在 digitalocean 有一个 ubuntu 服务器,我试图让 php 工作。我已经成功地用 nginx 创建了一个子域,尽管 nginx 一直在下载 php 文件,而不是为它们提供服务。这是我的默认设置:
我试图将以下内容添加到默认的 nginx 文件中,但没有成功:
完成:
我开始认为“location / {”是针对每个内容的,还是某处存在错误配置?如果我将 html 文件添加到子域,它工作得非常好,然后 Nginx 正确地为它们提供服务,但不是 php。
我的 nginx 配置文件如下所示:
machine-learning - Deploying 和 Serving ML 模型有什么区别?
最近我开发了一个用于分类问题的 ML 模型,现在想投入到生产中对实际生产数据进行分类,在探索时我遇到了部署和服务 ML 模型的两种方法,它们之间的基本区别是什么?
python - SageMaker 中的 TensorFlow 电影镜头
我是一个尝试定义 SageMaker 管道的 Tensorflow 和 Python 新手。目前,我在尝试在 SageMaker 中运行保存的模型 Movie Lens示例时遇到问题。我设法使用下面的代码训练模型,并使用 SavedModel API 将其保存到适当的 S3 存储桶中。当我加载模型并尝试使用加载的模型进行预测时,我收到错误消息:
模型加载和预测:
模型类
模型训练并保存:
用于 SageMaker 容器的图像是 tensorflow-training:2.2-cpu-py37
我想上面错误中的位置参数与__call__
模型类中的函数匹配。这里困扰我的是我不理解给出的错误,如果__call__
在我进行预测时识别出该函数,model(value)
为什么我会收到没有匹配函数的错误?
deployment - 关于部署模型和训练用户数据的问题
我将迁移学习用于预训练模型以部署到生产环境中,但我的数据不足以实现高精度,因此我希望在我的网络上提供它并从输入用户那里获取数据,以便在提供服务的同时不断训练它。我的问题是我们该怎么做?像 Watson Studio 和 Rasa 框架,他们似乎在这方面做得很好。任何人都可以给我一些指导吗?非常感激。
websphere - 无法访问 Websphere 服务器子文件夹中的静态文件
我需要使用 Websphere 服务器从服务器计算机本地存储访问图像等文件。我尝试在war文件的WEB_INF文件夹中添加一个ibm-web-ext.xml文件。错误:404 未找到数据。
该代码在 ibm-web-ext.xml 文件中使用。
kubernetes - 从使用 kubectl 创建的 kfserving github 示例中提供服务,但无法推断
我已经在 linux 桌面上安装了 minikube 集群和 kfserving。然后我跟着两个教程
https://github.com/kubeflow/kfserving/tree/master/docs/samples/v1beta1/custom/torchserve
https://github.com/kubeflow/kfserving/tree/master/docs/samples /v1alpha2/custom/kfserving-custom-model
在第二个教程中,我需要将 yaml 文件中的“名称:自定义”从“自定义:”部分移动到“容器:”部分。
我预计服务服务正在工作并响应服务请求和服务的 pod 在 Kubernetes 中。
我使用 2021 年 5 月以来的最新稳定版本。
但是我在两个教程中都有相同的错误。波纹管命令来自第一个教程。当我使用模型准备 docker 图像并运行时
命令。
我看到像这样的输出
但我无法运行预测,因为找不到 404 服务。
当我跑
我没有看到任何新的豆荚。
但我可以删除服务
当我遵循其他教程时,例如:https ://github.com/kubeflow/kfserving/tree/master/docs/samples/v1beta1/torchserve一切正常,我可以运行预测。
为什么我不能运行预测?
为什么要创建新的 pod?
如果上述教程不起作用,如何使用 docker 映像在 kfserving 中设置服务?