我有一个 Python 脚本,它导入一个大型 CSV 文件,然后计算文件中每个单词的出现次数,然后将计数导出到另一个 CSV 文件。
但是正在发生的事情是,一旦该计数部分完成并开始导出,它就会Killed
在终端中显示。
我不认为这是一个内存问题(如果是我假设我会遇到内存错误而不是Killed
)。
会不会是这个过程太长了?如果是这样,有没有办法延长超时时间,这样我就可以避免这种情况?
这是代码:
csv.field_size_limit(sys.maxsize)
counter={}
with open("/home/alex/Documents/version2/cooccur_list.csv",'rb') as file_name:
reader=csv.reader(file_name)
for row in reader:
if len(row)>1:
pair=row[0]+' '+row[1]
if pair in counter:
counter[pair]+=1
else:
counter[pair]=1
print 'finished counting'
writer = csv.writer(open('/home/alex/Documents/version2/dict.csv', 'wb'))
for key, value in counter.items():
writer.writerow([key, value])
打印Killed
后发生的事情,完整的消息是:finished counting
killed (program exited with code: 137)