我目前正在尝试从 Python 2.7 中的 .csv 文件中读取数据,其中包含多达 100 万行和 200 列(文件范围从 100mb 到 1.6gb)。我可以对 300,000 行以下的文件执行此操作(非常缓慢),但是一旦超过此值,我就会出现内存错误。我的代码如下所示:
def getdata(filename, criteria):
data=[]
for criterion in criteria:
data.append(getstuff(filename, criteron))
return data
def getstuff(filename, criterion):
import csv
data=[]
with open(filename, "rb") as csvfile:
datareader=csv.reader(csvfile)
for row in datareader:
if row[3]=="column header":
data.append(row)
elif len(data)<2 and row[3]!=criterion:
pass
elif row[3]==criterion:
data.append(row)
else:
return data
getstuff 函数中的 else 子句的原因是所有符合条件的元素都将一起列在 csv 文件中,所以当我通过它们时我会离开循环以节省时间。
我的问题是:
我怎样才能让它与更大的文件一起工作?
有什么办法可以让它更快吗?
我的电脑有 8GB RAM,运行 64 位 Windows 7,处理器是 3.40 GHz(不确定你需要什么信息)。