1

我对 Python 很陌生,但我有一个痛苦的问题。我收到了一个程序,它读取一个 infile(文本),更改一些值,并写入一个 outfile(也是文本)。随着 outfile 变得越来越大,写入变得越来越慢,在大约 2 MB 之后变得难以忍受。为什么会这样?我已尝试更改代码以使用不同大小的缓冲区,并且我已将其更改为在写入之前将数据缓存到更大的块(字符串)中。我还尝试了 join 而不是 += 来创建要写入的字符串。这些都对性能没有任何影响-除了编写更大的块,这实际上使代码变慢了。(!!!)

这是写入输出文件的方法。我将写入部分从单独的方法移至内联:

for ifile in _file_stripper(f_in):
    parse_infile(ifile)
    date = variable_data['arkiveringsdatum']
    variable_data['arkiveringsdatum'] = datetime( int(date[0:4]), int(date[4:6]), int(date[6:8]), tzinfo=TZ()).isoformat('T')
    _personnr= variable_data['personnr'].replace('-', '').split(' ')[0]
    tmplist = ['<utskriftsstatus><brevid_kalla>', variable_data['brevid_kalla'], '</brevid_kalla><mapp>Se Allt</mapp><tidpunkt>', variable_data['arkiveringsdatum'], '</tidpunkt><dokumentpaket>', variable_data['dokumenttyp'], '</dokumentpaket><status>Utskriven</status><rensningsdatum>999999</rensningsdatum><kundid_gdb>', variable_data['kundid_gdb'], '</kundid_gdb><personnr>', _personnr, '</personnr></utskriftsstatus>']
    f_out.write(''.join(tmplist))

方法_file_stripper将大文件拆分为记录。Infiles 为 5-21 MB。

请建议在哪里查找错误。当我谈到减速时,写入速度在写入大约 1 MB 后下降到每秒写入 4KB 以下,并且随着 outfile 变大而不断下降。

编辑:根据要求,这里是 parse_infile 和 _file_stripper:

def parse_infile(f_in):
   index = ""     #variabel som håller vilken ondemandvariabel vi läser in
   found_data = 0  #1 ifall vi hittat det vi letar efter annars 0
   for row in f_in:
      if( 'personnr' in row):
         found_data=1
         index = "personnr"
      elif( 'kundid_gdb' in row):
         found_data=1
         index = "kundid_gdb"
      elif( 'brevid_kalla' in row):
         found_data=1
         index = "brevid_kalla"
      elif( 'arkiveringsdatum' in row):
         found_data=1
         index = "arkiveringsdatum"
      elif( 'GROUP_FILENAME' in row ):
         variable_data['dokumenttyp'] = row.split(':')[-1].split('.')[2].capitalize()
      elif(found_data==1):
         variable_data[index] = row.split(':')[1].strip() 
         index = ""  #Nollställ index ifall värden saknas i filen
         found_data=0
      else:
         pass

def _file_stripper(tot_file):
   try:
      myfile = []
      for rows in tot_file:
         if not 'GROUP_FILENAME' in rows:
            myfile.append(rows)
         else:
            myfile.append(rows)
            yield myfile
   except Exception:
      pass

variable_data = { "brevid_kalla": "", "arkiveringsdatum": "", 
          "kundid_gdb": "", "personnr": "",
          "dokumenttyp": "" }
4

2 回答 2

1

最有可能发生的事情是您的variable_data,或者更有可能的是其中的某些字段,随着每个解析的文件一起成长。

您的parse_infile 函数可能不会重置它并将新文件的值附加到已经存在的值上,从而使其对于每个读取的文件都变大 - 这将导致您所描述的 (O² ) 中使用的资源。

最好的做法是不要依赖全局变量——让你的parse_infile函数在每次交互时创建一个新的字典,并将其返回给调用者。在您的主函数上,将函数的返回值分配给您的字典:

def parse_infile(file_):
    variable_data = {}
    (...)
    return variable_data

(...)
for ifile in _file_stripper(f_in):
    variable_data = parse_infile(ifile)
    (...)
于 2013-01-11T12:04:48.057 回答
0

您的函数会无休止地_file_stripper添加到列表中,而无需重置列表:myfile

def _file_stripper(tot_file):
   try:
      myfile = []
      for rows in tot_file:
         if not 'GROUP_FILENAME' in rows:
            myfile.append(rows)
         else:
            myfile.append(rows)
            yield myfile
   except Exception:
      pass

请注意,myfile设置在循环之外,并且每一行都附加到myfile,然后按原样生成。因此,您的进程内存占用量将不断增长,迫使操作系统最终开始换出内存,从而减慢您的进程。

我认为您的意思是在未出现myfile时重置:GROUP_FILENAMErows

def _file_stripper(tot_file):
   try:
      myfile = []
      for rows in tot_file:
         if not 'GROUP_FILENAME' in rows:
            myfile.append(rows)
         else:
            myfile.append(rows)
            yield myfile
            myfile = []
   except Exception:
      pass
于 2013-01-14T17:10:57.923 回答