问题标签 [tensorflow-gpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 张量流显式设备要求错误
我正在尝试使用一个 gpu 上的训练代码和另一个 gpu 上的 eval 代码运行 CIFAR10 教程。我确定我的计算机上有两个 gpus,我可以通过在此处运行简单示例来测试它:https ://www.tensorflow.org/how_tos/using_gpu/index.html
但是,with device('/gpu:0')
对于 CIFAR 示例中的大多数变量,使用 a 不起作用。我在 gpu 与 cpu 上尝试了很多不同变量的组合,或者在一个或另一个上尝试了所有变量。某些变量总是出现相同的错误,如下所示:
这可能是张量流中的错误还是我遗漏了什么?
tensorflow - 如何在tensorflow中设置特定的gpu?
我想指定 gpu 来运行我的进程。我设置如下:
但是它仍然在我的两个 gpus 中分配内存。
python - TensorFlow 似乎不使用 GPU
我TensorFlow
在 Windows 8 和 Python 3.5 上使用。我更改了这个简短的示例以查看 GPU 支持 ( 是否Titan X)
有效。不幸的是,使用 GPU 的运行时 ( tf.device("/gpu:0"
) 和不 ( tf.device("/cpu:0"
)) 是相同的。Windows CPU 监控显示,在这两种情况下,计算期间的 CPU 负载都约为 100%。
这是代码示例:
这是 GPU 案例的输出:
在 CPU 的情况下,输出是相同的,使用 cpu:0 而不是gpu:0
. 计算时间不变。即使我使用更多操作,例如运行时间约为 1 分钟,GPU 和 CPU 也是相等的。提前谢谢了!
python - import tensorflow 为 tensorflow-gpu 生成错误
我已经安装了所有必要的 GPU 驱动器 / cudNN 等,并按照Tensorflow 官方页面的说明进行了所有必要的配置,但是在尝试导入 tensorflow 时,我得到了以下错误跟踪。
我想提一下,我已经查看了官方 TF 安装页面底部的常见问题部分,其中说我应该安装/重新安装 Visual C++ 2015 可再发行组件(x64 版本),并且我确保它是PATH
系统环境的一部分变量,但我仍然得到错误。
顺便说一句,我正在使用 Python 3.5.3。
如果我尝试为 CPU 安装 Tensorflow,它可以正常工作。
更新:
我检查了我的%PATH%
环境变量并指定了文件:
也许我没有参考正确的msvcp140.dll
?
memory-management - tensorflow 的反向传播是如何实现的?(记忆问题)
我已经开始在 TF(基于 VGG16)中实现fast-rcnn。在学习时,如果我尝试在所有层上反向传播,我会遇到记忆问题。但是测试效果很好。(我有一个 6G 内存的 Gforce GTX 1060)
我想知道怎么来的?TF 保存是否需要两次保存参数进行训练?
python - python tensorflow不会安装
我尝试以多种方式安装tensorflow(python 3.5)但没有成功:
- 通过输入“pip install tensorflow”和“pip install tensorflow-gpu”并得到错误:
通过命令:“pip install tensorflow-1.2.0rc0-cp35-cp35m-win_amd64”和几个 .whl 文件并得到错误:
/li>我什至用过 conda 但它没有成功..
你能帮我安装张量流吗?谢谢
tensorflow - Tensorflow 1.1 错误:尝试以不同于第一次使用的变量范围重用 RNNCell
我正在尝试运行 Tensorflow 网站上的seq2seq 翻译示例并出现以下错误。我在用tensorflow-gpu==1.1.0
ValueError:尝试以不同于第一次使用的变量范围重用 RNNCell。第一次使用单元格是在范围“embedding_attention_seq2seq/embedding_attention_decoder/attention_decoder/gru_cell”,这次尝试是在范围“embedding_attention_seq2seq/rnn/gru_cell”。如果您希望它使用一组不同的权重,请创建一个新的单元实例。如果在使用之前:MultiRNNCell([GRUCell(...)] * num_layers),请更改为:MultiRNNCell([GRUCell(...) for _ in range(num_layers)])。如果在您使用相同的单元实例作为双向 RNN 的正向和反向单元之前,只需创建两个实例(一个用于正向,一个用于反向)。2017 年 5 月,我们将开始将此单元格的行为转换为使用现有存储的权重(如果有),
在 github 上,人们建议将reuse
参数添加到单元格中,如下所示:
但我仍然遇到同样的错误。有什么问题以及如何解决?非常感谢任何帮助。
PS:stackoverflow 上有一个类似的帖子,但是那个解决方案对我不起作用,并且由于 TF 的版本不同,我创建了一个新帖子。
python - 成功安装Tensorflow-GPU,“import tensorflow”后什么都不会打印出来
TensorFlow GPU 将成功安装和导入。但是根据网上这样的文章
如何判断 tensorflow 是否从 python shell 内部使用 gpu 加速?
在控制台中,它将打印
我已经用 tensorflow gpu 测试过
它向我展示了设备 gpu:0 用于计算。所以 tensorflow gpu 可以工作。
但问题是,当导入 tensorflow GPU 时,控制台没有显示上述信息(CUDA 库成功打开等)。
tensorflow - tensorflow 同时使用 2 个 GPU
首先,我还是 tensorflow 的新手。我正在使用 v0.9 并尝试使用我们拥有的机器中安装的 2 个 GPU。所以,这就是正在发生的事情:
- 当我
training data
在机器上启动脚本时,它只能在 2 个 GPU 中的一个上工作。它默认采用第一个gpu:0/
。 - 当我启动另一个
training data
脚本以在第二个 GPU 上运行(在进行所需的更改之后with tf.device..
)同时保持第一个进程在第一个 GPU 上运行时,tensorflow 会终止第一个进程并仅使用第二个 GPU 来运行第二个进程。所以似乎tensorflow一次只允许一个进程?
我需要的是:能够在同一training data
台机器上安装的 2 个不同 GPU 上为 2 个不同模型启动两个单独的脚本。在这种情况下我错过了什么吗?这是预期的行为吗?我应该在本地机器上通过分布式张量流吗?
tensorflow - 使用 GPU 对 TensorFlow 模型的性能有何影响?
我使用 GPU (1080 ti) 训练了一个神经网络。在 GPU 上的训练速度远远优于使用 CPU。
目前,我想使用 TensorFlow Serving 来服务这个模型。我只是想知道在服务过程中使用 GPU 是否对性能有同样的影响?
由于训练适用于批处理,但推理(服务)使用异步请求,您是否建议使用 GPU 来为使用 TensorFlow 服务的模型提供服务?