我有三个不同的 .csv 数据集,我通常使用 pandas 读取并训练深度学习模型。每个数据都是一个 m 矩阵,其中 n 是样本数,m 是特征数。读取数据后,我进行了一些重塑,然后使用以下方法将它们提供给我的深度学习模型feed_dict
:
data1 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data2 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data3 = pd.DataFrame(np.random.uniform(low=0, high=1, size=(10,3)), columns=['A', 'B', 'C'])
data = pd.concat([data1, data2, data2], axis=1)
# Some deep learning model that work with data
# An optimizer
with tf.compat.v1.Session() as sess:
sess.run(init)
sess.run(optimizer, feed_dict={SOME VARIABLE: data})
但是我的数据现在太大而无法放入内存,我想知道如何使用 tf.data 而不是使用 pandas 来读取数据。抱歉,如果我提供的脚本是伪代码而不是我的实际代码。