问题标签 [tensorflow-estimator]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何通过将另外两个 tf.feature_columns 相乘来创建 tf.feature_column?
Tensorflow 中已经有跨列创建特征的功能tf.feature_column.crossed_column
,但更多用于类别数据。数值数据呢?
例如,已经有 2 列
如果我想像这样基于年龄和education_num创建第三个和第四个特征列
怎么做到呢?
tensorflow - 张量流估计器:average_loss vs loss
在和 和tf.estimator
有什么区别?我会从名称中猜到前者是后者除以记录数,但事实并非如此;有几千条记录,后者大约是前者的三四倍。average_loss
loss
python - tf.estimator shuffle - 随机种子?
当我反复运行时tf.estimator.LinearRegressor
,每次的结果都略有不同。我猜这是因为shuffle=True
这里:
np
就目前而言,这很好,但是当我尝试通过在和中播种随机数生成器来使其具有确定性时tf
:
每次的结果仍然略有不同。我错过了什么?
python - 使用 tf.estimator 提前停止,如何?
我tf.estimator
在 TensorFlow 1.4 中使用并且tf.estimator.train_and_evaluate
很棒,但我需要提前停止。添加它的首选方式是什么?
我认为有一些tf.train.SessionRunHook
地方可以做到这一点。我看到有一个旧的 contrib 包,ValidationMonitor
它似乎已经提前停止,但在 1.4 中似乎不再存在。或者将来首选的方式是依靠tf.keras
(提前停止真的很容易)而不是tf.estimator/tf.layers/tf.data
,也许?
tensorflow - 不能使用估计器 + 数据集并训练不到一个时期
TensorFlow 1.4 将 TF 数据集移至核心 ( tf.data.Dataset
) 和文档/教程建议用于tf.estimator
训练模型。
但是,按照本页末尾的建议,必须在函数内部实例化 Dataset 对象及其迭代器input_fn
。这意味着通过数据集的迭代将在每次调用时重新开始estimator.train(input_fn, steps)
。因此,调用步骤 < epoch 中的样本数,将导致在数据集的子集上训练模型。
因此我的问题。是否可以使用 Estimator + Dataset 实现类似的功能:
无需在每次调用时从头开始训练样本迭代estimator.train(input_fn=train_input_fn, steps=valid_freq)
?
例如,与此处不同,在外部实例化 Dataset 及其迭代器input_fn
?我试过了,但它不起作用,因为输入(来自数据集迭代器)和模型(来自估计器model_fn
)不是同一个图表的一部分。
谢谢
python - 将 Tensorflow 分析器与 tf.Estimator 一起使用
我需要使用 Tensorflow 分析器来分析一些由于某种原因运行缓慢的代码。不幸的是,有问题的代码使用 tf.Estimator,所以我不知道如何将运行元数据对象注入会话 run() 调用中以获取分析器所需的信息。
我应该怎么办?
python - Tensorflow - 如何为 tf.Estimator() CNN 使用 GPU 而不是 CPU
我认为它应该与 一起使用with tf.device("/gpu:0")
,但我应该把它放在哪里?我不认为它是:
那么我应该把它放在 的main()
函数中tf.app
,还是我用于估计器的模型函数中?
编辑:如果这有帮助,这是我的main()
功能:
正如你所看到的,我在这里没有明确的会话声明,那么我到底应该把with tf.device("/gpu:0")
?
python - 在 TensorFlow 中使用实验的优势
许多 TensorFlow 的示例应用程序创建Experiment
s 并Experiment
通过调用tf.contrib.data.learn_runner.run
. 看起来 anExperiment
本质上是一个Estimator
.
创建和运行所需的代码Experiment
看起来比创建、训练和评估Estimator
. 我确信使用Experiment
s 有一个优势,但我不知道它是什么。有人可以填我吗?
tensorflow - TF - 在 model_fn 中将 global_step 传递给种子
在 Tensorflow Estimator API ( tf.estimator
) 中,有没有办法使用当前会话model_fn
来评估张量并将值传递给 python?我想在 dropout 中有一个种子,取决于 的值global_step
,但由于前者要求int
后者是tensor
.
python - 导出 TensorFlow 估计器
我正在尝试使用基于 API tf.estimator 的 Tensorflow (r1.4) 构建 CNN。这是一个罐头模型。这个想法是在 python 中使用估计器来训练和评估网络,并通过加载训练后生成的 pb 文件来使用没有估计器的 C++ 中的预测。
我的第一个问题是,这可能吗?
如果是,则训练部分有效,预测部分也有效(生成的 pb 文件没有估算器)但是当我从估算器加载 pb 文件时它不起作用。
我收到了这个错误:"Data loss: Can't parse saved_model.pb as binary proto"
我的 pyhon 代码导出我的模型:
它也不适用于tf.estimator.Estimator.export_savedmodel()
如果你们中的一个人知道关于带有固定模型的估计器以及如何导出它的明确教程,我很感兴趣