8

我正在寻找一种简单的方法来验证我的TF图表是否确实在 GPU 上运行。

PS。验证是否cuDNN使用了该库也很好。

4

3 回答 3

9

有几种方法可以查看操作放置。

  1. 将 RunOptions 和 RunMetadata 添加到会话调用中,并在 Tensorboard 中查看操作和计算的位置。在此处查看代码:https ://www.tensorflow.org/get_started/graph_viz

  2. 在会话 ConfigProto 中指定 log_device_placement 选项。这会记录到控制台操作所在的设备。https://www.tensorflow.org/api_docs/python/tf/ConfigProto

  3. 使用 nvidia-smi 在终端中查看 GPU 使用情况。

于 2017-03-01T13:05:57.333 回答
5

在 Python 中导入 TF 时

import tensorflow as tf

您将获得这些指示 CUDA 库使用情况的日志

I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcublas.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcudnn.so.5 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcufft.so.8.0 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:135] successfully opened CUDA library libcurand.so.8.0 locally

此外,当您在 Config Proto 中构建图形并使用 log_device_placement 运行会话时,您将获得这些日志(表明它找到了 GPU 设备):

I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:910] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
I tensorflow/core/common_runtime/gpu/gpu_device.cc:885] Found device 0 with properties: 
name: GeForce GTX 1060 6GB
major: 6 minor: 1 memoryClockRate (GHz) 1.759
pciBusID 0000:01:00.0
Total memory: 5.93GiB
Free memory: 4.94GiB
I tensorflow/core/common_runtime/gpu/gpu_device.cc:906] DMA: 0 
I tensorflow/core/common_runtime/gpu/gpu_device.cc:916] 0:   Y 
I tensorflow/core/common_runtime/gpu/gpu_device.cc:975] Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX 1060 6GB, pci bus id: 0000:01:00.0)
于 2017-03-02T04:41:48.603 回答
0

有一个相关的TensorFlow 上游问题。基本上它说 Python API 还没有公开这些信息。

然而,C++ API 可以。例如有tensorflow::KernelsRegisteredForOp(). 我围绕它编写了一个小的 Python 包装器,然后supported_devices_for_op 在此处实现(在此提交中)。

于 2017-12-01T12:49:38.013 回答