120

如何使用 pandas 过滤要加载到内存中的 CSV 行?这似乎是一个应该在read_csv. 我错过了什么吗?

示例:我们有一个带有时间戳列的 CSV,我们只想加载时间戳大于给定常量的行。

4

7 回答 7

204

在将 CSV 文件加载到 pandas 对象之前,没有过​​滤行的选项。

您可以加载文件然后使用过滤器df[df['field'] > constant],或者如果您有一个非常大的文件并且您担心内存耗尽,则使用迭代器并在连接文件块时应用过滤器,例如:

import pandas as pd
iter_csv = pd.read_csv('file.csv', iterator=True, chunksize=1000)
df = pd.concat([chunk[chunk['field'] > constant] for chunk in iter_csv])

您可以改变chunksize以适合您的可用内存。有关更多详细信息,请参见此处

于 2012-11-30T21:31:28.067 回答
10

我没有找到在read_csv. 但是,read_csv返回一个 DataFrame,可以通过 boolean vector 选择行来过滤它df[bool_vec]

filtered = df[(df['timestamp'] > targettime)]

这是选择 df 中的所有行(假设 df 是任何 DataFrame,例如read_csv调用的结果,至少包含一个 datetime 列timestamptimestamp列中的值大于 targettime 的值。类似的问题

于 2012-11-30T19:43:40.377 回答
4

如果过滤的范围是连续的(通常使用时间(戳)过滤器),那么最快的解决方案是对行范围进行硬编码。简单地结合skiprows=range(1, start_row)参数nrows=end_row。然后导入需要几秒钟,而接受的解决方案需要几分钟。考虑到导入时间的节省,初始的一些实验start_row并不是一个巨大的成本。请注意,我们使用range(1,..).

于 2020-02-02T13:59:53.467 回答
1

已接受答案的替代方法是将 read_csv() 应用于通过过滤输入文件获得的 StringIO。

with open(<file>) as f:
    text = "\n".join([line for line in f if <condition>])

df = pd.read_csv(StringIO(text))

当过滤条件仅保留一小部分行时,此解决方案通常比接受的答案更快

于 2020-10-11T21:13:14.847 回答
0

考虑您有以下数据框

+----+--------+
| Id | Name   |
+----+--------+
|  1 | Sarath |
|  2 | Peter  |
|  3 | James  |
+----+--------+

如果您需要过滤记录,Id = 1则可以使用以下代码。

df = pd.read_csv('Filename.csv', sep = '|')
df = df [(df ["Id"] == 1)]

这将产生以下输出。

+----+--------+
| Id | Name   |
+----+--------+
|  1 | Sarath |
+----+--------+
于 2021-06-28T06:03:04.957 回答
-2

如果你在linux上,你可以使用grep。

# to import either on Python2 or Python3
import pandas as pd
from time import time # not needed just for timing
try:
    from StringIO import StringIO
except ImportError:
    from io import StringIO


def zgrep_data(f, string):
    '''grep multiple items f is filepath, string is what you are filtering for'''

    grep = 'grep' # change to zgrep for gzipped files
    print('{} for {} from {}'.format(grep,string,f))
    start_time = time()
    if string == '':
        out = subprocess.check_output([grep, string, f])
        grep_data = StringIO(out)
        data = pd.read_csv(grep_data, sep=',', header=0)

    else:
        # read only the first row to get the columns. May need to change depending on 
        # how the data is stored
        columns = pd.read_csv(f, sep=',', nrows=1, header=None).values.tolist()[0]    

        out = subprocess.check_output([grep, string, f])
        grep_data = StringIO(out)

        data = pd.read_csv(grep_data, sep=',', names=columns, header=None)

    print('{} finished for {} - {} seconds'.format(grep,f,time()-start_time))
    return data
于 2017-12-13T14:26:29.967 回答
-4

您可以指定nrows参数。

import pandas as pd df = pd.read_csv('file.csv', nrows=100)

此代码在 0.20.3 版本中运行良好。

于 2018-11-12T05:59:06.790 回答