问题标签 [tensorflow2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 如何从 Tensorflow.js (.json) 模型转换为 Tensorflow (SavedModel) 或 Tensorflow Lite (.tflite) 模型?
我已经从 Google下载了一个用于 Tensorflow.js (tfjs) 的预训练 PoseNet 模型,因此它是一个json文件。
但是,我想在 Android 上使用它,所以我需要.tflite
模型。尽管有人在这里将一个类似的模型从 tfjs 移植到了 tflite ,但我不知道他们转换的是什么模型(PoseNet 有很多变体)。我想自己做这些步骤。另外,我不想运行一些有人上传到 stackOverflow 文件中的任意代码:
注意:小心不受信任的代码——TensorFlow 模型就是代码。有关详细信息,请参阅安全使用 TensorFlow。张量流文档
有谁知道任何方便的方法来做到这一点?
keras - 如何在 tf2.x 中使用 keras 的 tfrecord
当我在 tf2.x 中使用带有 keras 的 tfrecord 时,它只读取第一批进行训练,我如何读取剩余的 tfrecord 数据
python - tf.keras.models.model 与 tf.keras.model
models
tf.keras API 中有多余的吗?在某些情况下,即使不使用models
,代码也运行良好。
keras.models.sequential
和keras.sequential
tf.keras.models.Model
和tf.keras.Model
然而,有时,models
似乎是必要的。例如,
model = keras.models.load_model()
,但model = keras.Model
没有.load_model()
功能。因为.load_model()
定义在tf.keras.Model
.
我发现它非常混乱和半冗余。任何人都可以解释什么是重点models
,什么时候有必要?
python - TensorFlow 2 中的注意力层:我得到“TypeError:‘AdditiveAttention’对象不可迭代”
我在 TensorFlow 2 中遇到了一个我不完全理解的AdditiveAttention()
层错误(即Bahdanau Attention)。Question
我想用一个在两个和数据集上训练的 seq2seq 注意力模型来训练一个聊天机器人Answer
。
当我尝试将注意力层添加到模型时,我遇到的错误代表了我的问题。这是我的构建功能:
当我运行该功能时:
我收到以下错误:
TypeError: 'AdditiveAttention' object is not iterable
有人可以帮助我理解错误,并正确实现 Attentional seq2seq 模型吗?
python - 如何使用新数据重新训练已经训练的 TensorFlow 模型?
我已经用一些数据训练了一个深度学习模型,它在测试数据上表现良好。现在,当我获得新数据时如何重新训练这个模型?
python - 在 tensorflow2 中使用自定义数据生成器进行多线程处理
我一直在 keras,tensorflow 1 中使用自定义数据生成器,
效果很好。现在,当我切换到 tensorflow2 时,我发现不再支持 multi_gpu_model(model)。
正如文档中所建议的那样,我切换到 tf.distribute.MirroredStrategy(),因为我在具有 4 个 GPU 的无头服务器上运行。我还将生成器('training_generator')切换为 tf.data.Dataset 格式:
但是如何让它与多个线程一起运行呢?这是我尝试过的(都来自这里:https ://medium.com/@nimatajbakhsh/building-multi-threaded-custom-data-pipelines-for-tensorflow-f76e9b1a32f5 ):
- 用“地图”包裹它。这可行,但仍然在单线程中运行,因为我的 CPU 没有完全加载并且 GPU 正在挨饿。
train_dataset = train_ds.map(lambda x,y: (x,y), num_parallel_calls=workers)
- 使用“交错”
generators = tf.data.Dataset.from_tensor_slices(['Gen_0', 'Gen_1', 'Gen_2', 'Gen_3', 'Gen_4', 'Gen_5', 'Gen_6', 'Gen_7','Gen_8','Gen_9', 'Gen_10'])
` 这会加载 CPU 并很好地为 GPU 提供数据,但它似乎会创建我的数据集的副本。我想要的只是遍历整个数据集一次,像以前在 model.fit_generator() 中那样并行生成批次
任何帮助或见解表示赞赏!
tensorflow - 类型错误:传递给参数“输入”的值的数据类型 float64 不在允许值列表中:bfloat16、float32、int32、uint32
2.2 或更高版本是否支持带有 float64 的 TPU?我正在使用需要 float64 才能实现数值稳定性的 VGP。我收到以下错误:
类型错误:传递给参数“输入”的值的数据类型 float64 不在允许值列表中:bfloat16、float32、int32、uint32
当前的 TF 不基于文档
python - 如何在TF2中获得预训练模型的中间张量输出
我想使用注意力模型来提取注意力分数。但是我找不到任何 TF2 API 可以使用。简单的代码:
但引发异常:
它正在工作,但这不是我想要的:
我想获得中间张量,而不是层的输出。
tensorflow - 如何安装tensorflow==2.3.0
我想在新的tensorflow2.3中测试一些功能但是,我在安装过程中苦苦挣扎。
我看到了:当 conda 还不支持它时,如何在 Windows 上安装最新的 Tensorflow(这里:2.2)?
我执行了:pip install --upgrade pip
我有:
python - ValueError: Graph disconnected: cannot get value for tensor Tensor... 访问以下先前的层没有问题:
我想用tf2.keras获取中间子模型层的输出。这里是一个由两个子模块组成的模型:
输出:
然后,我想得到model1和model2的输出中间层:
在 tf2.3 中运行,我得到的错误是:
但以下代码有效:
但不是我想要的。这很奇怪,model1是model2的一部分,那么为什么我们需要输入一个额外的张量。有时,很难得到一个额外的张量,尤其是对于复杂的模型。