8

如何使用 pd.read_csv() 迭代地对文件进行分块并保留 dtype 和其他元信息,就像我一次读取整个数据集一样?

我需要读取一个太大而无法放入内存的数据集。我想使用 pd.read_csv 导入文件,然后立即将块附加到 HDFStore。但是,数据类型推断对后续块一无所知。

如果存储在表中的第一个块仅包含 int 并且后续块包含浮点数,则会引发异常。所以我需要首先使用 read_csv 遍历数据帧并保留最高推断类型。此外,对于对象类型,我需要保留最大长度,因为它们将作为字符串存储在表中。

有没有一种方法可以只保留这些信息而不读取整个数据集?

4

1 回答 1

11

我不认为它会这么直观,否则我不会发布这个问题。但是再一次,熊猫让事情变得轻而易举。但是,保留问题,因为此信息可能对处理大数据的其他人有用:

In [1]: chunker = pd.read_csv('DATASET.csv', chunksize=500, header=0)

# Store the dtypes of each chunk into a list and convert it to a dataframe:

In [2]: dtypes = pd.DataFrame([chunk.dtypes for chunk in chunker])

In [3]: dtypes.values[:5]
Out[3]:
array([[int64, int64, int64, object, int64, int64, int64, int64],
       [int64, int64, int64, int64, int64, int64, int64, int64],
       [int64, int64, int64, int64, int64, int64, int64, int64],
       [int64, int64, int64, int64, int64, int64, int64, int64],
       [int64, int64, int64, int64, int64, int64, int64, int64]], dtype=object)

# Very cool that I can take the max of these data types and it will preserve the hierarchy:

In [4]: dtypes.max().values
Out[4]: array([int64, int64, int64, object, int64, int64, int64, int64], dtype=object)

# I can now store the above into a dictionary:

types = dtypes.max().to_dict()

# And pass it into pd.read_csv fo the second run:

chunker = pd.read_csv('tree_prop_dset.csv', dtype=types, chunksize=500)
于 2013-03-21T19:41:15.230 回答