如何使用 pandas 过滤要加载到内存中的 CSV 行?这似乎是一个应该在read_csv
. 我错过了什么吗?
示例:我们有一个带有时间戳列的 CSV,我们只想加载时间戳大于给定常量的行。
在将 CSV 文件加载到 pandas 对象之前,没有过滤行的选项。
您可以加载文件然后使用过滤器df[df['field'] > constant]
,或者如果您有一个非常大的文件并且您担心内存耗尽,则使用迭代器并在连接文件块时应用过滤器,例如:
import pandas as pd
iter_csv = pd.read_csv('file.csv', iterator=True, chunksize=1000)
df = pd.concat([chunk[chunk['field'] > constant] for chunk in iter_csv])
您可以改变chunksize
以适合您的可用内存。有关更多详细信息,请参见此处。
我没有找到在read_csv
. 但是,read_csv
返回一个 DataFrame,可以通过 boolean vector 选择行来过滤它df[bool_vec]
:
filtered = df[(df['timestamp'] > targettime)]
这是选择 df 中的所有行(假设 df 是任何 DataFrame,例如read_csv
调用的结果,至少包含一个 datetime 列timestamp
)timestamp
列中的值大于 targettime 的值。类似的问题。
如果过滤的范围是连续的(通常使用时间(戳)过滤器),那么最快的解决方案是对行范围进行硬编码。简单地结合skiprows=range(1, start_row)
参数nrows=end_row
。然后导入需要几秒钟,而接受的解决方案需要几分钟。考虑到导入时间的节省,初始的一些实验start_row
并不是一个巨大的成本。请注意,我们使用range(1,..)
.
已接受答案的替代方法是将 read_csv() 应用于通过过滤输入文件获得的 StringIO。
with open(<file>) as f:
text = "\n".join([line for line in f if <condition>])
df = pd.read_csv(StringIO(text))
当过滤条件仅保留一小部分行时,此解决方案通常比接受的答案更快
考虑您有以下数据框
+----+--------+
| Id | Name |
+----+--------+
| 1 | Sarath |
| 2 | Peter |
| 3 | James |
+----+--------+
如果您需要过滤记录,Id = 1
则可以使用以下代码。
df = pd.read_csv('Filename.csv', sep = '|')
df = df [(df ["Id"] == 1)]
这将产生以下输出。
+----+--------+
| Id | Name |
+----+--------+
| 1 | Sarath |
+----+--------+
如果你在linux上,你可以使用grep。
# to import either on Python2 or Python3
import pandas as pd
from time import time # not needed just for timing
try:
from StringIO import StringIO
except ImportError:
from io import StringIO
def zgrep_data(f, string):
'''grep multiple items f is filepath, string is what you are filtering for'''
grep = 'grep' # change to zgrep for gzipped files
print('{} for {} from {}'.format(grep,string,f))
start_time = time()
if string == '':
out = subprocess.check_output([grep, string, f])
grep_data = StringIO(out)
data = pd.read_csv(grep_data, sep=',', header=0)
else:
# read only the first row to get the columns. May need to change depending on
# how the data is stored
columns = pd.read_csv(f, sep=',', nrows=1, header=None).values.tolist()[0]
out = subprocess.check_output([grep, string, f])
grep_data = StringIO(out)
data = pd.read_csv(grep_data, sep=',', names=columns, header=None)
print('{} finished for {} - {} seconds'.format(grep,f,time()-start_time))
return data
您可以指定nrows
参数。
import pandas as pd
df = pd.read_csv('file.csv', nrows=100)
此代码在 0.20.3 版本中运行良好。