我正在学习创建 TensorFlow Extended 管道并发现它们非常有用。但是,我还没有弄清楚如何调试和测试通过这些管道的(表格)数据。我知道 TensorFlow 使用 TFRecords/tf.Examples,它们是 protobufs。
这些可以通过使用 aTFRecordDataset
和 tf.Example进行人工阅读parseFromString
。不过,这种格式很难阅读。
如何实际测试数据?我觉得我需要一个熊猫数据框。而且由于我们有 100 多个列和不同的用例,每次我想这样做时,我几乎无法定义所有列。我可以以某种方式使用我的架构吗?谢谢!
编辑:我会接受@TheEngineer 的回答,因为它给了我关于如何实现我想要的关键提示。不过,我想分享我的解决方案。
免责声明:我使用此代码只是为了测试并查看我的管道中发生了什么。在生产中使用此代码时要小心。可能有更好、更安全的方法。
import sys
import numpy as np
import tensorflow_data_validation as tfdv
# Our default values for missing values within the tfrecord. We'll restore them later
STR_NA_VALUE = "NA"
INT_NA_VALUE = -sys.maxsize - 1
FLOAT_NA_VALUE = float("nan")
# Create a dict containing FixedLenFeatures using our schema
def load_schema_as_feature_dict(schema_path):
schema = tfdv.load_schema_text(schema_path)
def convert_feature(feature):
if feature.type == 1:
return tf.io.FixedLenFeature((), tf.string, STR_NA_VALUE)
if feature.type == 2:
return tf.io.FixedLenFeature((), tf.int64, INT_NA_VALUE)
if feature.type == 3:
return tf.io.FixedLenFeature((), tf.float32, FLOAT_NA_VALUE)
raise ValueError("Non-implemented type {}".format(feature.type))
return dict((feature.name, convert_feature(feature)) for feature in schema.feature)
def as_pandas_frame(tfrecord_path, schema_path):
feature_dict = load_schema_as_feature_dict(schema_path)
dataset = tf.data.TFRecordDataset(tfrecord_path, compression_type="GZIP")
parsed_dataset = dataset.map(lambda serialized_example: tf.io.parse_single_example(serialized_example, feature_dict))
df = pd.DataFrame(list(parsed_dataset.as_numpy_iterator()))
# Restore NA values from default_values we had to set
for key, value in {np.object: str.encode(STR_NA_VALUE), np.int64: INT_NA_VALUE, np.float: FLOAT_NA_VALUE}.items():
type_columns = df.select_dtypes(include=[key]).columns
df[type_columns] = df[type_columns].replace({value:None})
return df
现在,您只需使用存储的 tfrecord 和 schema.pbtxt 文件调用此函数:
df = as_pandas_frame("path/to/your/tfrecord.gz", "path/to/your/schema.pbtxt")