我正在尝试在没有 nvidia-docker 的情况下在我的容器上获得 gpu 支持
我知道使用 nvidia docker,我只需要使用 --runtime=nvidia 但我目前的情况不允许使用 nvidia-docker
我尝试在我的容器上安装 nvidia 驱动程序、cuda、cudnn,但它失败了。
如何在我的容器上使用没有 nvidia docker 的 tensorflow gpu?
我正在尝试在没有 nvidia-docker 的情况下在我的容器上获得 gpu 支持
我知道使用 nvidia docker,我只需要使用 --runtime=nvidia 但我目前的情况不允许使用 nvidia-docker
我尝试在我的容器上安装 nvidia 驱动程序、cuda、cudnn,但它失败了。
如何在我的容器上使用没有 nvidia docker 的 tensorflow gpu?
您会很高兴知道最新的 Docker 版本现在支持 nvidia GPU。您需要使用 --device 标志来指定您的 Nvidia 驱动程序。请参阅 -如何在 docker 容器中使用 GPU
早些时候,您必须安装 nvidia-docker,它是一个普通的 docker,为 nvidia GPU 提供了一层薄薄的抽象层。请参阅 - Nvidia Docker
您不能简单地在 docker 容器中安装 nvidia 驱动程序。容器必须能够访问硬件。虽然我不确定,但坐骑可能会帮助你解决这个问题。见 - https://docs.docker.com/storage/
您可以使用 anaconda来安装和使用 Tensorflow-gpu。
确保您安装了最新的 nvidia 驱动程序。从官方网站安装 Anaconda 2 或 3。 https://www.anaconda.com/distribution/
创建一个新环境并安装 tensorflow-gpu 和 cudatoolkit。
$conda create -n tf-gpu tensorflow-gpu python cudnn cudatoolkit
您还可以指定应用程序的版本。
例如$conda create -n tf-gpu tensorflow-gpu python=3.5 cudnn cudatoolkit=8
请检查您的硬件是否具有支持您正在/将要使用的 CUDA 版本的最低计算能力。
如果您不能--runtime=nvidia
作为命令行选项传递(例如docker-compose
),您可以在 Docker 守护进程配置文件中设置默认运行时/etc/docker/daemon.json
:
{
"default-runtime": "nvidia"
}