问题标签 [tensorflow1.15]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
111 浏览

object-detection-api - 如何对经过训练的目标检测模型进行剪枝?

嗨,我已经使用 tensorflow 1.14 对象检测 API 训练了对象检测模型,我的模型表现良好。但是,我想减少/优化模型的参数以使其更轻。如何在训练有素的模型上使用修剪?

0 投票
0 回答
17 浏览

tensorflow1.15 - 急切运行时在自定义损失函数中打印出 y_true,y_pred

我不确定如何调试用于编译模型的自定义损失函数。我想可视化 y_true 和 y_pred 形状,如果可能的话,在 train_on_batch 运行期间调用它们时查看它们的数据。我该怎么做?

如果我使用 tf.make_ndarray(),则会收到以下错误

我也不能调用 y_true.eval() 因为该函数是用损失函数编译的。因此,它期望占位符

0 投票
0 回答
26 浏览

python - 在 Tensorflow 1.15 中将地球移动器损失计算为 2D 数组的损失函数时,我收到了这个错误:

这是我在自动编码器中使用的 EMD 损失函数:

而她就是Autoencoder的架构

自动编码器架构

但我收到了这个错误:

ValueError:变量 <tf.Variable 'conv1d/kernel:0' shape=(3, 1, 256) dtype=float32>None用于渐变。请确保您的所有操作都定义了渐变(即可微分)。没有梯度的常见操作:K.argmax、K.round、K.eval。

0 投票
0 回答
12 浏览

tensorflow1.15 - 如何在 tf.while_loop 中重写 TensorArray

我有一个用 1 或 0 写入的 tensorArray,它的值可能会为 while 循环内的索引更新几次我该怎么做?是否有其他更好的方法来做到这一点 tensorArray 的大小存储在某个变量中,并且在 while 循环执行期间不会改变

0 投票
1 回答
33 浏览

python - 为 tf.while_loop 定义一个常量张量

我想以某种方式维护一个tf.while_loop可以支持以下功能的常量列表

  1. 我能够在索引处读取和写入(多次)常量值
  2. 我可以tf.cond通过检查它在索引处的值与某个常数来运行它

TensorArray在这里不起作用,因为它不支持重写。我还有什么其他选择?

0 投票
1 回答
37 浏览

python - TypeError:由于 tensor_scatter_update 而预期单个张量时的张量列表

看看下面的代码示例:

我用一个简单的案例来描述我面临的问题这个函数(myFun)被称为 tf.while_loop 的主体(如果相关) my_tensor 的定义

如何定义 tf.tensor_scatter_update 的 indices 参数?我正在使用 tensorflow1.15

0 投票
0 回答
28 浏览

python - 为多层自定义度量函数更新 tf.Keras.Model.metric_names

我有一个创建如下的模型:

它编译如下:

这是准确度函数的样子:

问题是 model.metric_names 给出的名称类似于 [conv2d_9_acc1', 'conv2d_12_acc2'] 我怎样才能摆脱它前面的图层名称?我可以命名我的输出层吗?那应该可以解决问题

0 投票
2 回答
78 浏览

tensorflow - Tf 1 和 Tf 2 之间的 Adam 优化器

我试图在 Tf1 和 Tf2 之间复制相同的结果。下面是一个使用 Adam 优化器的简单示例。

在 TF2 中:

x 是:<tf.Variable 'Variable:0' shape=(3,) dtype=float32, numpy=array([0.49998665, 1.4999859 , 2.4999857 ], dtype=float32)>

在 TF1 中:

x 是:[1。2. 3.]

有谁知道使用 Adam Optimizer 时导致 Tf1 和 Tf2 不一致的原因是什么?我不排除执行错误的可能性。

如果有人能告诉我我在 TF1 中做错了什么,我无法获得与 TF2 中相同的结果,我将不胜感激。

非常感谢!

0 投票
1 回答
33 浏览

tensorflow - 在tensorflow 2.7中运行代码tensorflow 1.15

我想运行使用 tensorflow == 1.15 但在我的系统上安装了 tensorflow 2.7 的代码。根据此地址https://www.tensorflow.org/guide/migrate/migrate_tf2上的 Tensorflow ,我使用以下几行代码,以便在不更改 tensorflow 2.7 的情况下运行代码:

导入 tensorflow.compat.v1 作为 tf

tf.disable_v2_behavior()

但我不知道该怎么做,而不是我的代码中的以下几行!因为,根据 Tensorflow “您仍然可以针对 TF2 二进制安装运行未修改的 TF1.x 代码(contrib 除外)”

请帮忙

0 投票
0 回答
16 浏览

python - 错误:在 RTX3090 Ubuntu20.04 中使用 docker 运行训练代码(tensorflow 1.1x,python 2.7)

我一直从你们那里得到很多帮助。

我正在寻求您对此错误的帮助。

下面是我的训练环境。



[主机]

操作系统:Ubuntu 20.04

显卡:RTX 3090

码头工人版本:20.10.7


[培训代码]

Python版本:2.7

张量流:1.13

我正在测试这个 github 代码进行研究:https ://github.com/Google-Health/records-research/tree/master/graph-convolutional-transformer


我发现 RTX30XX GPU 需要 CUDA 11 或更高版本,但训练代码需要 CUDA 10 才能使用 gpu 进行训练。

所以,我认为使用 docker image 是必不可少的。



[我试过的]

1. 使用 Docker

我在下面使用了 docker 图像。

  • 张量流/张量流:1.13.2-gpu

  • 张量流/张量流:1.15.0-gpu

  • nvcr.io/nvidia/tensorflow:20.01-tf1-py2

但是,所有三个 docker 图像都会产生相同的结果。(错误)

错误信息

docker中的nvidia-smi

我也试过这些

我搜索了错误“Blas GEMM”,得到了以下解决方案:

tensorflow-gpu 不适用于 Blas GEMM 启动失败

https://stackoverflow.com/a/65523597/17757583

cublas的tensorflow运行错误


但是,这些并不能解决错误...

所以,我在下面尝试了其他方法。



2. 其他方法

https://www.pugetsystems.com/labs/hpc/How-To-Install-TensorFlow-1-15-for-NVIDIA-RTX30-GPUs-without-docker-or-CUDA-install-2005/

我试过这个方法,但是设置完成后conda env中的python版本只有3.x。(我应该使用 python 2.7)



是否有任何其他解决方案可以使用 docker 修复此错误?