我有一个大(300,000 行 x 25 列)数组,我读过
dataset = numpy.genfromtxt(DataFileName,dtype="string",delimiter=',')
然后清理换行符和引用。我尝试通过两种方式做到这一点:
第一种清理方法
for i in range(len(dataset)):
for j in range(len(dataset[i])):
dataset[i][j] = dataset[i][j].replace("\n", "").replace("\"", "")
第二种清理方法
dataset = [ [word.replace('\n','').replace('"','') for word in dataset[i]] for i in range(len(dataset))]
在此之后,我对数组进行了一些密集搜索以计算一堆东西。如果我用第二种方式而不是第一种方式进行清理,搜索速度会快 5 倍。是什么原因?