问题标签 [tensorflow2.x]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - 由于 Python 操作而弄乱了 TensorBoard 图
这个问题是关于 TensorFlow(和 TensorBoard)版本 2.2rc3,但我在 2.1 中遇到了同样的问题。
考虑以下奇怪的代码:
运行它并查看在 TensorBoard 中创建的图表时, 您将看到以下内容。
可以看出,加法运算真的很难看。
换线时
随着线条:
TensorBoard 创建了一个更好的图表(在第二个屏幕截图中,详细显示了模型以及其中一个内部块)。
模型的两种表示之间的区别在于,在第二种表示中,我们可以命名加法运算并将它们分组。
我找不到任何方法来命名这些操作,除非使用keras.layers.add()
. 在这个模型中,问题看起来并不那么严重,因为模型很简单,而且很容易用+
替换keras.layers.add()
。然而,在更复杂的模型中,它可能会成为一种真正的痛苦。例如,t[:, start:end]
应将诸如之类的操作转换为对tf.strided_slice()
. 所以我的模型表示非常混乱,有很多神秘的聚集、跨步和连接操作。
我想知道是否有一种方法可以包装/分组此类操作以在 TensorBoard 中提供更好的图形。
redhat - 在不支持 AVX 指令的 Linux 机器上导入并运行 Tensorflow 2
我在 Red Hat Enterprise Linux Server 7.7 版上,并在这台机器上安装了 TensorFlow 2.1.0。
每当我尝试按如下方式导入 TensorFlow 时:
它给出了以下错误:
我做了一些研究,发现这是因为我的机器不支持 AVX。
我找到了一个在 Windows 机器上解决类似问题的链接。我想知道是否有任何方法可以在 Linux 机器上解决它?
我使用了更多 /proc/cpuinfo | grep flags 以获取我的 CPU 支持的标志。以下是我的机器上支持的标志:
我知道如果我使用 tensorflow 1.5 版,问题就会消失,但此时我无法将其降级到 1.5。
有什么方法可以在不支持 AVX 指令的机器上导入和运行 tensorflow 2.1.0?
python - 在 BIG 数据集上训练模型的最佳实践是什么
我需要在需要比我的 GPU 更多内存的数据集上训练模型。将数据集提供给模型的最佳做法是什么?
这是我的步骤:
- 首先,我使用 batch_size 加载数据集
- 第二步我准备数据
- 然后我将数据提供给模型
但是在第 2 步,我为第一批准备了数据而错过了其余批次,因为 model.fit 超出了循环范围(据我所知,它仅适用于第一批)。
另一方面,我无法删除 take(1) 并在循环下移动 model.fit 方法。因为是的,在这种情况下,我将处理所有批次,但同时 model.fill 将在每次迭代结束时调用,在这种情况下,它也无法正常工作
那么,我应该如何更改我的代码才能使用 model.fit 与大数据集正常工作?你能指出文章,任何文件,或者只是建议如何处理它?谢谢
更新 在我下面的帖子(方法 1)中,我描述了一种解决问题的方法——还有其他更好的方法,还是只有一种方法可以解决这个问题?
keras - TensorFlowOpLayer 弄乱了 TensorBoard 图
这个问题是关于 TensorFlow(和 TensorBoard)版本 2.2rc3,但我在 2.1 中遇到了同样的问题。这是“由于 Python 操作导致 TensorBoard 图表混乱”问题的延续。
考虑以下代码:
运行时,它会打印以下摘要:
注意奇怪的条目tf_op_layer_AddV2 (TensorFlowOpLayer)
。这种条目使 TensorBoard 图表非常混乱。事实证明,在避免使用 时,并没有添加tf.zeros()
这个奇怪的元素。tf_op_layer_AddV2
所以下面的代码不会生成任何tf_op_layer
元素:
有许多更复杂tf_op_layer_
的创建元素的示例。如果解释为什么创建它们以及如何避免它们,将不胜感激。
keras - 如何在 tensorflow2 中禁用打印?
我将 TF2 与 python3 一起使用,我想禁用时代进度的 TensorFlow 打印。我知道我可以通过写verbose = 0来禁用日志,但是我想看看打印。我只想看到每个时代的结果,而不是其中的进展。
epoch_hist = model.fit(train_images, train_labels, epochs=100, batch_size=32, validation_data=(test_images, test_labels),verbose=0, callbacks=[early_stopping_callback])
python - 使用 tf.map_fn 导出模型
我有一些张量流模型,我需要在保存的模型中导出。下面是我试图导出的模型的简化代码。
但是在导出模型时出现以下错误。
在部署它时,我无法删除tf.map_fn
在保存的模型中进行一些我需要的基本处理的部分。
python - 如何在 Tensorflow 2 中测量右填充张量的(内容)长度?
我有一些不同长度的序列(例如编码为数字数据的文本数据)。为了将它们放入张量中,使用零将它们右填充到固定宽度。例如:
现在我的问题是:如何测量这些填充序列的(内容)长度?
我希望从上面的示例中得到的输出是:
tensorflow - 在 tensorflow 2. 什么成为图表的一部分,什么不是?
在代码中:
python print 仅在函数的第一次调用期间执行,即在图形创建期间。out=x+5.
成为图形的一部分,因此每次运行图形时都会执行。我想知道当我在普通 python 中编写一个函数并用它来装饰它tf.function
以绘制它时,什么都被转换为图形(如out = x+5
)和什么没有(如 python 打印)
python-3.x - tf.keras.Model 找不到分配的变量
看看这段代码(假设 Tensorflow 2.1 或 2.2):
为什么是model.variables
空?我希望包含var
. 据我了解tf.Module
,它可以用作名称范围,也可以用作tf.Variable
分配给其属性的记录。既然 atf.keras.Model
是 a tf.Module
,它应该递归地做同样的事情,不是吗?