问题标签 [tensorflow-gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 在 Tensorflow 中使用多个 GPU 时,GPU 或 CPU 上的网络变量?
我正在使用多个 GPU。我发现基本上使用多个 GPU 就是为每个设备声明一个具有共享权重的网络。
然后,权重实际上位于第一个 GPU( /gpu:0
) 上并与剩余的 GPU 共享,我确保使用 Tensorboard。以下是代码。
完全没问题吗?或者在Net
定义中,我应该明确声明每个权重(例如,卷积层权重)/cpu:0
吗?
在CIFAR10
多 GPU 示例中,它们在 CPU 中声明权重并与多个 GPU 共享它们,如
为什么?有原因吗?
tensorflow - 在 Tensorflow 中迭代 cpu 和 gpu 设备
我知道 Tensorflow 可以通过"/cpu0"
或明确地将计算放置在任何设备上"/gpu0"
。但是,这是硬编码的。有没有办法使用内置 API 迭代所有可见设备?
tensorflow - 如何摆脱 Tensorflow 的警告?其他解决方案不起作用
例如,如果我运行这段代码:
然后我会得到这个:
警告总是出现,非常烦人。我尝试过使用其他解决方案,例如:
但它仍然给了我同样的警告。两件事,我怎样才能摆脱警告?tensorflow 只使用 GPU 吗?
c++ - 自定义操作:读取/写入临时 GPU 数据
我正在编写一个自定义的 Tensorflow 操作。我需要将自定义数据结构(在 CPU 上构建)发送到 GPU 以在 CUDA 内核中使用。但是,据我了解,使用 Tensorflow 管理内存,只能动态分配张量,对吗?如果是这样:
a) 如何在 CPU 上分配一个临时张量,以便我可以从自定义数据结构中写入数据?
b) 我怎样才能将此张量存储到 GPU 以与 CUDA 内核一起使用?
我看到allocate_temp
使用AllocatorAttributes
但文档不存在。
基本上我需要和 的 Caffe 等价mutable_cpu_data
物mutable_gpu_data
。
python - windows下Tensorflow-gpu安装错误
最近我正在为 windows 安装 tensorflow(gpu)。我有一张计算能力 = 3.0(兼容)Python(3.5.2)Cuda 8.0(已安装并正常工作)CudNN 的显卡(这些是根据 tensorflow 手册)但是当我安装了 tensorflow
它已成功安装。但是当我在 python 中运行代码时,我得到了错误。这是日志。
任何人都可以找出问题所在。我现在正在尝试使用 gpu,但由于这个错误而卡住了几个星期
ubuntu-16.04 - 即使指定了 5.1.10,Tensorflow 也可以使用 cuDNN 5.0 进行编译
我尝试自己编译 Tensorflow 以加快训练速度(使用预编译的轮子可以工作,但速度很慢)。我使用 ./configure 来配置并明确指定应使用 cuDNN 版本 5.1.10。在此之前,我下载了 cuDNN 5.1.10 并将我的文件复制到 Cuda 目录。
这是配置(.tf_configure.bazelrc)的样子:
注意 TF_CUDNN_VERSION="5.1.10" 部分。接下来我执行以下命令:
最后,我收到以下错误消息
到底是怎么回事?尽管我指定了正确的版本,但不知何故 Tensorflow 是使用 cuDNN 5.0 编译的?!
系统为 Ubuntu 16,AWS p2 实例。
macos - tensorflow Mac OS gpu 支持
根据
https://www.tensorflow.org/install/install_mac注意:从 1.2 版开始,TensorFlow 不再在 Mac OS X 上提供 GPU 支持。不再提供对 OS X 的 GPU 支持。
但是,我想通过 Thunderbolt 3 运行一个 e-gpu 设置,比如 1080 ti 的 akitio 节点。
需要哪些步骤才能使此设置正常工作?到目前为止我知道
- 禁用 SIP
- 运行自动化 e-gpu 脚本https://github.com/goalque/automate-eGPU
是必须的。让 CUDA / tensorflow 工作还需要什么?
neural-network - 我无法在 tensorflow 中使用 GPU,而 theano 工作正常
我正在使用 linux(ubuntu 16.04),我的笔记本电脑有 nvidia geforce 840m。我尝试按照他们网站上的步骤以及 CUDA 和 cuDNN 安装 tensorflow GPU。但不知何故,在 spyder IDE 上运行代码然后使用 nvidia-smi 检查 nvidia 状态时,它说 GPU 上没有运行任何进程。我无法解决这个问题。如果有人能够解决此问题,请提供帮助。
提前致谢!
我的 conda 中有这些环境:
此外,当我使用 theanos 导入 keras 时,它会显示以下内容:
当使用 theanos 后端时,nvidia-smi 显示使用 nvidia gpu0 的 anaconda。因此我成功安装了所有先决条件
python - (Windows 上的 TensorFlow)ImportError: cannot import name 'model_analyzer'
我正在尝试使用以下步骤在 Windows 10 中训练 TensorFlow 模型:https ://github.com/tensorflow/models/tree/master/attention_ocr#requirements
我已经为 Windows 安装了 virtualenv(按照这个例子)
Windows 无法识别 source 命令。Windows 是否需要 virtualenv 命令的附加步骤,或者是否有源命令的替代用法?
请注意,随后的 pip install 命令有效(pip,tensorflow_gpu),但是当我尝试使用 train.py 进行训练时,出现以下错误:
python-3.x - 自定义 Inception V3 模块
如何使用 Inception V3 tensorflow 模块使用我们自己的需求数据集图像进行训练。比如说我想用不同的冷饮公司品牌百事可乐、雪碧等来训练 Inception V3 模块。它是如何实现的..?? 在链接https://github.com/tensorflow/models/tree/master/inception中,他们使用 ImageNet 进行了解释。我对此有点困惑。请解释一下这些东西。