我想通过使用 OpenFaaS 来服务 Tensorfow 模型。基本上,我想tensorflow serving
以公开我的模型的方式调用“服务”函数。
OpenFaaS 在 Kubernetes 上正常运行,我可以通过curl
或从UI
.
我以培养瓶为例,但我一直在收到502 Bad Gateway
。
OpenFaaS 项目如下所示
serve/
- Dockerfile
stack.yaml
内页Dockerfile
如下
FROM tensorflow/serving
RUN mkdir -p /home/app
RUN apt-get update \
&& apt-get install curl -yy
RUN echo "Pulling watchdog binary from Github." \
&& curl -sSLf https://github.com/openfaas-incubator/of-watchdog/releases/download/0.4.6/of-watchdog > /usr/bin/fwatchdog \
&& chmod +x /usr/bin/fwatchdog
WORKDIR /root/
# remove unecessery logs from S3
ENV TF_CPP_MIN_LOG_LEVEL=3
ENV AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
ENV AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
ENV AWS_REGION=${AWS_REGION}
ENV S3_ENDPOINT=${S3_ENDPOINT}
ENV fprocess="tensorflow_model_server --rest_api_port=8501 \
--model_name=${MODEL_NAME} \
--model_base_path=${MODEL_BASE_PATH}"
# Set to true to see request in function logs
ENV write_debug="true"
ENV cgi_headers="true"
ENV mode="http"
ENV upstream_url="http://127.0.0.1:8501"
# gRPC tensorflow serving
# EXPOSE 8500
# REST tensorflow serving
# EXPOSE 8501
RUN touch /tmp/.lock
HEALTHCHECK --interval=5s CMD [ -e /tmp/.lock ] || exit 1
CMD [ "fwatchdog" ]
该stack.yaml
文件如下所示
provider:
name: faas
gateway: https://gateway-url:8080
functions:
serve:
lang: dockerfile
handler: ./serve
image: repo/serve-model:latest
imagePullPolicy: always
我使用 构建映像,faas-cli build -f stack.yaml
然后使用faas-cli push -f stack.yaml
.
当我执行时,faas-cli deploy -f stack.yaml -e AWS_ACCESS_KEY_ID=...
我得到Accepted 202
并且它在我的函数中正确显示。现在,我想tensorflow serving
在我指定的模型上调用ENV
.
我尝试使其工作的curl
方式是以这种方式使用
curl -d '{"inputs": ["1.0", "2.0", "5.0"]}' -X POST https://gateway-url:8080/function/deploy-model/v1/models/mnist:predict
但我总是获得502 Bad Gateway
.
有人有 OpenFaaS 和 Tensorflow Serving 的经验吗?提前致谢
附言
如果我在tensorflow serving
没有of-watchdog
(基本上没有 openfaas 的东西)的情况下运行,则模型会正确提供。