我正在使用行数作为变量来拆分文本文件。我编写此函数是为了将吐出的文件保存在临时目录中。每个文件有 400 万行,除了最后一个文件。
import tempfile
from itertools import groupby, count
temp_dir = tempfile.mkdtemp()
def tempfile_split(filename, temp_dir, chunk=4000000):
with open(filename, 'r') as datafile:
groups = groupby(datafile, key=lambda k, line=count(): next(line) // chunk)
for k, group in groups:
output_name = os.path.normpath(os.path.join(temp_dir + os.sep, "tempfile_%s.tmp" % k))
for line in group:
with open(output_name, 'a') as outfile:
outfile.write(line)
主要问题是此功能的速度。为了将一个 800 万行的文件拆分为两个 400 万行的文件,我的 windows 操作系统和 Python 2.7 的时间超过 30 分钟