问题标签 [tensorflow1.15]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 使用解码csv文件时如何在Tensorflow中指定报价文件
我的字段是一个列表字符串,例如["female","male","0"]
,如果我使用
发生错误:
如果我转use_quote_delim=True
,它将["female","male","0"]
被视为一个字符串,而不是一个列表。
如何解决问题?
python - 现代 Pytorch 或 Tensorflow 中的并行简单优化
我有一项任务必须使用 Adam 优化器快速运行 N 个并行简单优化。我一直在使用 tensorflow 1.x 进行此操作,但尝试将所有内容更新到 2.x 或现代 pytorch 会导致行为慢得多。
我在 tensorflow 1.x 2.x 和 pytorch 中构建了最小的(至少在我的能力范围内)示例,这些示例都在 cpu 上。 https://gist.github.com/gftabor/abeb108fc9aa8b1c799bfc63287c2e5f
如您所见,tensorflow 2.x 的耗时大约是 tensorflow 1.x 的 8 倍。Pytorch 类似于 tf 2.x。
我认为问题是动态图执行,所以这是我挖得最多的兔子洞,但我关心的只是性能。
兔子洞
我一直在尝试通过使用 tf.function 和 torch.jit.script 功能静态构建图表来匹配 Tensorflow 1.x 的性能。它们似乎都没有给我几乎 Tensorflow 1.x 的表现力,而且它们似乎都没有与 Tensorflow 1.x 的性能相匹配,在我的问题上,我可以构建到静态图中的部分只是前向 + 损失函数而不是一个完整的亚当优化步骤。在使用 Tensorflow 1.x 时,我可以将这些完整的亚当优化步骤中的 N 个并行构建为单个静态图,并快速将数据传递给它。
声称 使用现代 Tensorflow 或 pytorch 库中的任何一个,似乎都不可能达到 Tensorflow 1.x 的一半速度,这使得更新非常没有吸引力。
有没有一种方法可以在我缺少的 Tensorflow 2.x 或 pytorch 中获得大幅加速?
tensorflow - 如何在 tensorflow1 中实现 VaR/CVaR?
我需要在 tensorflow1 中实现一个 VaR/CVaR 类,以便在 tf1 中编码的模型上使用它。我已经在pytorch中实现了它,但是我对tensorflow1不熟悉,我想寻求一些帮助。熟悉 tf1 的人可以帮帮我吗?下面是我在 pytorch 中的 VaR/CVaR 实现。先感谢您。
pytorch - 如何在 Tensorflow1 中实现风险价值?
我需要在 tensorflow1 中实现一个 VaR/CVaR 类。我已经在pytorch中实现了它,但是我对tensorflow1不熟悉,我想寻求一些帮助。熟悉 tf1 的人可以帮帮我吗?下面是我在 pytorch 中的 VaR/CVaR 实现。先感谢您。
numpy - 在不升级 tf 的情况下将 tensorflow 数据集转换为 numpy(1.15 版)
我正在使用 tensorflow 1.15,需要将数据集转换为 numpy。
不幸的是,我无法转换为 tf 2.0,这将使我的生活更轻松(由于 as_numpy_iterator 方法)。
有任何想法吗?谢谢!
tensorflow2.0 - 在 tensorflow 2.5 git 的 tf.compat 中找不到 v1 模块
为了使 tf1 代码与 tf2 兼容,使用了该tf.compat.v1
模块。
我想阅读这个文件中的代码。但是,我无法在他们的 git 上找到“v1”。
python - 定义一个可调用的“损失”函数
我正在尝试在启用了急切执行tf.train.AdamOptimizer.minimize()
的 Tensorflow 版本上优化损失函数(使用证据下限定义)。1.15.2
我尝试了以下方法:
并得到以下信息:RuntimeError: "loss" passed to Optimizer.compute_gradients should be a function when eager execution is enabled.
如果我禁用急切执行,这很好用,但是因为我需要将 tensorflow 变量保存为numpy
数组,所以我需要启用急切执行。文档提到,当启用急切执行时,损失必须是可调用的。因此,损失函数应该以不接受输入但给出损失的方式定义。我不确定如何实现这样的目标。
我试过train_op = optim.minimize(lambda: loss)
但得到了ValueError: No gradients provided for any variable, check your graph for ops that do not support gradients, between variables [] and loss <function <lambda> at 0x7f3c67a93b00>
tensorflow - 如何在 tensorflow 1.14 中将两个填充张量连接到一个填充张量?
我想得到一个功能padded_concat(padded_tensor_A, padded_tensorB)
:
padded_tensor_A
并且padded_tensor_B
具有相同的形状 ( batch_size
, max_seq_length
)
我想要得到的是:
padded_tensor_A
:
padded_concat
padded_tensor_B
:
得到
tensorflow - 为什么机器学习训练在一个 gpu 上失败但在另一个 gpu 上运行?
我的机器有 2 个 GPU,一个 GTX 1070 和一个 GTX 3080。
我有一个带有 tensorflow 1.15 及其所有相关依赖项(CUDA 10、CuDnn 7.6 等)的 conda 环境。当调用我的基于 tensorflow 的训练脚本进行训练时,我得到
但是,当我尝试在 GTX 3080 上进行训练时
显卡信息:
谁能解释为什么在 GTX 3080 上训练失败?
python - 使用 Mayapy 的张量流
mayapy pip install tensorflow
我使用然后尝试安装了 TensorFlow import tensorflow as tf
,但 Maya 在此调用时崩溃:
完整的崩溃日志:https : //pastebin.com/yVimvEJa 我错过了任何库吗?
测试:Python:2.7 Maya 2020 Linux CentOS7 Tensorflow 1.14