7

我正在使用 Tensorflow 对自己的数据集进行神经网络预测。我做的第一个模型是在我的计算机中使用一个小数据集。在此之后,我稍微更改了代码,以便使用具有更大数据集的 Google Cloud ML-Engine 在 ML-Engine 中实现训练和预测。

我正在对熊猫数据框中的特征进行规范化,但这会引入偏差,并且我得到的预测结果很差。

我真正想要的是使用该库tf-transform来规范化图中的数据。为此,我想创建一个函数preprocessing_fn 并使用' tft.scale_to_0_1'。https://github.com/tensorflow/transform/blob/master/getting_started.md

我发现的主要问题是当我尝试进行预测时。我正在寻找互联网,但我没有找到任何导出模型的示例,其中数据在训练中被标准化。在我发现的所有示例中,数据都没有在任何地方标准化。

我想知道的是,如果我在训练中对数据进行规范化,并发送一个带有新数据的新实例来进行预测,那么这些数据是如何规范化的?

¿ 也许在 Tensorflow 数据管道中?进行标准化的变量保存在某个地方?

总之:我正在寻找一种方法来规范化我的模型的输入,然后新实例也变得标准化。

4

1 回答 1

11

首先,您实际上并不需要 tf.transform 。您需要做的就是编写一个从培训/评估 input_fn 和您的服务 input_fn 调用的函数。

例如,假设您在整个数据集上使用 Pandas 来计算最小值和最大值

def add_engineered(features):
  min_x = 22
  max_x = 43
  features['x'] = (features['x'] - min_x) / (max_x - min_x)
  return features

然后,在您的 input_fn 中,通过调用 add_engineered 来包装您返回的功能:

def input_fn():
  features = ...
  label = ...
  return add_engineered(features), label

并在您的 serving_input fn 中,确保通过调用 add_engineered 类似地包装返回的功能(不是 feature_placeholders):

def serving_input_fn():
    feature_placeholders = ...
    features = feature_placeholders.copy()
    return tf.estimator.export.ServingInputReceiver(
         add_engineered(features), feature_placeholders)

现在,您在预测时的 JSON 输入只需要包含原始的、未缩放的值。

这是此方法的完整工作示例。

https://github.com/GoogleCloudPlatform/training-data-analyst/blob/master/courses/machine_learning/feateng/taxifare/trainer/model.py#L130

tf.transform 提供了一个两阶段的过程:计算最小值、最大值的分析步骤和将缩放插入到 TensorFlow 图中的图修改步骤。因此,要使用 tf.transform,您首先需要编写一个 Dataflow 管道进行分析,然后在 TensorFlow 代码中插入对 tf.scale_0_to_1 的调用。这是一个这样做的例子:

https://github.com/GoogleCloudPlatform/cloudml-samples/tree/master/criteo_tft

add_engineered() 方法更简单,这也是我的建议。如果您的数据分布会随着时间的推移发生变化,则需要 tf.transform 方法,因此您希望自动化整个管道(例如,用于持续训练)。

于 2017-09-29T00:40:56.110 回答