问题标签 [cudnn]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - TensorFlow中的cudnn编译配置
Ubuntu 14.04,CUDA 版本 7.5.18,tensorflow 的夜间构建
tf.nn.max_pool()
在 tensorflow 中运行操作时,出现以下错误:
E tensorflow/stream_executor/cuda/cuda_dnn.cc:286] 已加载 cudnn 库:5005 但源代码是针对 4007 编译的。如果使用二进制安装,请升级您的 cudnn 库以匹配。如果从源代码构建,请确保加载的库与您在编译配置期间指定的版本相匹配。
W tensorflow/stream_executor/stream.cc:577] 试图在没有 DNN 支持的情况下使用 StreamExecutor 执行 DNN 操作
回溯(最近一次通话最后):
...
如何在 tensorflow 的编译配置中指定我的 cudnn 版本?
python - 无法在 anaconda tenserenv 中运行convolutional.py
我在名为 tensorenv 的 anaconda 环境中安装了 tensorflow,为了测试安装,我尝试运行一个示例 convolutional.py,然后出现以下情况。
初始化后,它应该开始训练,但出现此错误。请帮忙
layer - 如何在 cuDNN API 中输入“cudnnSoftmaxBack()”的参数“dy”?
我想用 cuDNN 实现 LeNet-5,并尝试在 MNIST 数据集上训练网络。
网络的最后一层是'Softmax',我在转发过程中使用了函数'cudnnSoftmaxForward()'。然后,我想在后向过程中使用函数'cudnnSoftmaxBackward()',但我不确定函数'cudnnSoftmaxBackward()'--'dy'中的参数之一。
NVIDIA提供的函数'cudnnSoftmaxtBackward'是:
在 API 中,我知道“dy”表示“input_diff”,但 softmax 层是最后一层,如何为函数“cudnnSoftmaxBackward()”提供“input_diff”?我可以用“网络目标输出”和“网络实际输出”之间的差异来提供它吗?
linux - 如何在 gcc 版本之间切换以在 manjaro linux 上使用 cudnn 5 加速(cuda 7.5)构建 torch7 或 caffe?
我尝试在 manjaro linux 上使用 cuda 7.5 构建具有 cudnn5 支持的 torch7 或 caffe。
gcc 6.1 和 gcc 4.9 都可用。gcc 6.1 与 cuda 7.5 不兼容,导致在构建torch7 和支持cudnn 5 的caffe 时出错。
gcc4.9 是从 AUR 存储库安装的:
这个想法是在编译之前从 gcc6.1 切换到 gcc4.9:
但是当 gcc 被调用时,这仍然是 6.1 版本:
.bashrc 被修改为:
如何透明地临时切换到gcc 4.9(不修改makefile或caffe和torch7的install.sh脚本)?
linux - 如何将 cuDNN 更新到较新版本?
cuDNN 安装手册说
所有平台
将 cuDNN 存档解压缩到您选择的目录,以下称为 . 然后按照以下特定于平台的说明进行操作。
LINUX
cd 导出 LD_LIBRARY_PATH=`pwd`:$LD_LIBRARY_PATH
通过将 -I 添加到您的编译行并将 -L -lcudnn 添加到您的链接行来添加到您的构建和链接过程。
似乎它只是添加pwd
到LD_LIBRARY_PATH
,所以我想只需替换其中的文件即可进行pwd
更新。
但这似乎并不那么简单,因为在我完成此操作后,我收到了 Theano 的投诉说
cuDNN 版本太旧。更新到 v5,是 3007。
cuda - 火炬中的'cuda''cudnn''cunn'和'cutorch'有什么区别和关系?
我看到许多火炬代码使用:
这些包是做什么用的?他们与 Cuda 有什么关系?
cuda - 如何让 tensorflow 在具有 2.x 能力的 GPU 上运行?
我已经在 Linux Ubuntu 16.04 上成功安装了 tensorflow (GPU) 并进行了一些小改动,以使其与新的 Ubuntu LTS 版本一起使用。
但是,我认为(谁知道为什么)我的 GPU 满足了大于 3.5 的计算能力的最低要求。情况并非如此,因为我的GeForce 820M只有 2.1。有没有办法让 tensorflow GPU 版本与我的 GPU 一起工作?
我问这个问题是因为显然没有办法让 tensorflow GPU 版本在 Ubuntu 16.04 上运行,但是通过搜索互联网我发现情况并非如此,而且如果不是因为这个不满足的要求,我确实让它几乎可以工作。现在我想知道 GPU 计算能力的这个问题是否也可以解决。
python-2.7 - 导入 theano 时“编译 cuda_ndarray.cu 失败”,“cuda_runtime.h:没有这样的文件或目录”
我正在使用安装了 theano 0.8.2 的 ubuntu 14.04。当我在我的 gpu_tesy.py 中运行 import theano 时,出现了大约 5300 行代码,并且:
第5367章
5368
================================
在从:0:0 包含的文件中:/usr/include/stdc-predef.h:59:1:致命错误:cuda_runtime.h:没有这样的文件或目录
#万一^ 编译终止。
['nvcc', '-shared', '-O3', '-m64', '-Xcompiler', '-DCUDA_NDARRAY_CUH=c72d035fdf91890f3b36710688069b2e,-DNPY_NO_DEPRECATED_API=NPY_1_7_API_VERSION,-fPIC,-fvisibility=hidden',' '-rpath,/home/theory/.theano/compiledir_Linux-3.13--generic-x86_64-with-Ubuntu-14.04-trusty-x86_64-2.7.6-64/cuda_ndarray', '-I/home/theory/test_theono/ local/lib/python2.7/site-packages/theano/sandbox/cuda','-I/home/theory/test_theono/local/lib/python2.7/site-packages/numpy/core/include','-我/usr/include/python2.7','-I/home/theory/test_theono/local/lib/python2.7/site-packages/theano/gof','-o','/home/theory/。 theano/compiledir_Linux-3.13--generic-x86_64-with-Ubuntu-14.04-trusty-x86_64-2.7.6-64/cuda_ndarray/cuda_ndarray.so', 'mod.cu', '-L/usr/lib', '-lcublas', '-lpython2.7', '-lcudart'] 错误 (theano.sandbox.cuda): 无法编译 cuda_ndarray.cu: ('nvcc return status', 1, 'for cmd', 'nvcc -shared -O3 -m64 -Xcompiler -DCUDA_NDARRAY_CUH=c72d035fdf91890f3b36710688069b2e,-DNPY_NO_DEPRECATED_API=NPY_1_7_API_VERSION,-fPIC,-fvisibility=hidden -Xlinker -rpath,/home/theory-rpath,/home/theory_13-theano/编译目录generic-x86_64-with-Ubuntu-14.04-trusty-x86_64-2.7.6-64/cuda_ndarray -I/home/theory/test_theono/local/lib/python2.7/site-packages/theano/sandbox/cuda -I/ home/theory/test_theono/local/lib/python2.7/site-packages/numpy/core/include -I/usr/include/python2.7 -I/home/theory/test_theono/local/lib/python2.7/站点包/theano/gof -o /home/theory/.theano/compiledir_Linux-3.13--generic-x86_64-with-Ubuntu-14.04-trusty-x86_64-2.7。6-64/cuda_ndarray/cuda_ndarray.so mod.cu -L/usr/lib -lcublas -lpython2.7 -lcudart')
其中nvcc:/usr/local/cuda-7.0/bin/nvcc
CUDA_HOME=/usr/local/cuda-7.0
LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/lib/lib:/opt/intel/mkl/lib/intel64::/usr/local/cuda-7.0/lib64
DYLD_LIBRARY_PATH=:/usr/local/cuda-7.0/lib
多个版本的 cuDNN 和 CUDA 安装在同一台机器上。我不确定我应该如何让他们走上正确的道路。感谢任何帮助!
tensorflow - Tensorflow bazel 构建失败 - 不生成 bazel-bin 目录
我正在尝试使用以下配置从源安装 Tensorflow:
- 英伟达 GTX 1070
- Ubuntu 16.04
- CUDA 8.0
- 库顿 v5.0
我从这里按照以下步骤操作:
- 安装 bazel
- 安装的依赖项
- 安装了 CUDA 支持
./configure
支持 CUDA 8.0bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package
在这一步之后,据我所知,应该有一个bazel-bin
目录,以便我可以随后执行
但是,没有这样的目录。
我感觉这个错误信息可能与它有关?
重新执行后,bazel build ...
我发现这个...
我也应该添加这个...
machine-learning - Tensorflow Bazel 0.3.0 构建 CUDA 8.0 GTX 1070 失败
这是我的规格:
- GTX 1070
- 驱动程序 367(从 .run 安装)
- Ubuntu 16.04
- CUDA 8.0(从 .run 安装)
- 库登 5
- Bazel 0.3.0(潜在问题?)
- GCC 4.9.3
- 从源代码安装的 TensorFlow
要验证版本:
我确实切换了 bazel 版本,所以我bazel clean
成功执行了。
我可以通过以下方式验证 CUDA 是否正常运行~/NVIDIA_CUDA-8.0_Samples/1_Utilities/deviceQuery$
当我./configure
输入所有默认值时。
当前的错误
当我构建训练示例时,我得到了这个:
当我尝试构建pip
包时,我得到了这个: