有两种方法可以创建自定义容器:
构建衍生容器
如果你只需要安装额外的包,你应该创建一个从标准镜像之一派生的 Dockerfile(例如,FROM gcr.io/deeplearning-platform-release/tf-gpu.1-13:latest),然后添加 RUN使用 conda/pip/jupyter 安装软件包的命令。
conda 基础环境已添加到路径中,因此无需 conda init/conda activate 除非您需要设置另一个环境。在启动环境之前需要运行的其他脚本/动态环境变量可以添加到 /env.sh,它是作为入口点的一部分提供的。
例如,假设您有一个自定义构建的 TensorFlow 轮,您想用它来代替内置的 TensorFlow 二进制文件。如果您不需要额外的依赖项,您的 Dockerfile 将类似于:
Dockerfile.example
FROM gcr.io/deeplearning-platform-release/tf-gpu:latest
RUN pip uninstall -y tensorflow-gpu && \
pip install -y /path/to/local/tensorflow.whl
然后,您需要构建并将其推送到您的 GCE 服务帐户可以访问的地方。
PROJECT="my-gcp-project"
docker build . -f Dockerfile.example -t "gcr.io/${PROJECT}/tf-custom:latest"
gcloud auth configure-docker
docker push "gcr.io/${PROJECT}/tf-custom:latest"
从头开始构建容器
主要要求是容器必须在端口 8080 上公开服务。
在 VM 上执行的 sidecar 代理将仅将请求传送到此端口。
如果使用 Jupyter,您还应该确保您的 jupyter_notebook_config.py 配置如下:
c.NotebookApp.token = ''
c.NotebookApp.password = ''
c.NotebookApp.open_browser = False
c.NotebookApp.port = 8080
c.NotebookApp.allow_origin_pat = (
'(^https://8080-dot-[0-9]+-dot-devshell\.appspot\.com$)|'
'(^https://colab\.research\.google\.com$)|'
'((https?://)?[0-9a-z]+-dot-datalab-vm[\-0-9a-z]*.googleusercontent.com)')
c.NotebookApp.allow_remote_access = True
c.NotebookApp.disable_check_xsrf = False
c.NotebookApp.notebook_dir = '/home'
这会禁用基于笔记本令牌的身份验证(身份验证是通过代理上的 oauth 登录来处理的),并允许来自三个来源的跨源请求:Cloud Shell Web 预览、colab(请参阅此博客文章)和 Cloud Notebooks 服务代理。笔记本服务只需要第三个;前两个支持备用访问模式。