32

对于 python / pandas,我发现 df.to_csv(fname) 以每分钟约 100 万行的速度工作。我有时可以将性能提高 7 倍,如下所示:

def df2csv(df,fname,myformats=[],sep=','):
  """
    # function is faster than to_csv
    # 7 times faster for numbers if formats are specified, 
    # 2 times faster for strings.
    # Note - be careful. It doesn't add quotes and doesn't check
    # for quotes or separators inside elements
    # We've seen output time going down from 45 min to 6 min 
    # on a simple numeric 4-col dataframe with 45 million rows.
  """
  if len(df.columns) <= 0:
    return
  Nd = len(df.columns)
  Nd_1 = Nd - 1
  formats = myformats[:] # take a copy to modify it
  Nf = len(formats)
  # make sure we have formats for all columns
  if Nf < Nd:
    for ii in range(Nf,Nd):
      coltype = df[df.columns[ii]].dtype
      ff = '%s'
      if coltype == np.int64:
        ff = '%d'
      elif coltype == np.float64:
        ff = '%f'
      formats.append(ff)
  fh=open(fname,'w')
  fh.write(','.join(df.columns) + '\n')
  for row in df.itertuples(index=False):
    ss = ''
    for ii in xrange(Nd):
      ss += formats[ii] % row[ii]
      if ii < Nd_1:
        ss += sep
    fh.write(ss+'\n')
  fh.close()

aa=DataFrame({'A':range(1000000)})
aa['B'] = aa.A + 1.0
aa['C'] = aa.A + 2.0
aa['D'] = aa.A + 3.0

timeit -r1 -n1 aa.to_csv('junk1')    # 52.9 sec
timeit -r1 -n1 df2csv(aa,'junk3',myformats=['%d','%.1f','%.1f','%.1f']) #  7.5 sec

注意:性能的提高取决于 dtypes。但是(至少在我的测试中)to_csv() 的执行速度总是比未优化的 python 慢得多。

如果我有一个 4500 万行的 csv 文件,那么:

aa = read_csv(infile)  #  1.5 min
aa.to_csv(outfile)     # 45 min
df2csv(aa,...)         # ~6 min

问题:

What are the ways to make the output even faster?
What's wrong with to_csv() ? Why is it soooo slow ?

注意:我的测试是在 Linux 服务器的本地驱动器上使用 pandas 0.9.1 完成的。

4

4 回答 4

14

列弗。Pandas 已重写to_csv以大幅提高本机速度。该过程现在是 i/o 绑定的,解决了许多微妙的 dtype 问题和引用案例。这是我们与 0.10.1(即将发布的 0.11)版本相比的性能结果。这些都在ms,比例越低越好。

Results:
                                            t_head  t_baseline      ratio
name                                                                     
frame_to_csv2 (100k) rows                 190.5260   2244.4260     0.0849
write_csv_standard  (10k rows)             38.1940    234.2570     0.1630
frame_to_csv_mixed  (10k rows, mixed)     369.0670   1123.0412     0.3286
frame_to_csv (3k rows, wide)              112.2720    226.7549     0.4951

因此,单个 dtype(例如浮点数)的吞吐量不太宽,约为 20M 行/分钟,这是您上面的示例。

In [12]: df = pd.DataFrame({'A' : np.array(np.arange(45000000),dtype='float64')}) 
In [13]: df['B'] = df['A'] + 1.0   
In [14]: df['C'] = df['A'] + 2.0
In [15]: df['D'] = df['A'] + 2.0
In [16]: %timeit -n 1 -r 1 df.to_csv('test.csv')
1 loops, best of 1: 119 s per loop
于 2013-03-19T16:38:18.400 回答
12

在 2019 年,对于这样的情况,最好只使用 numpy。看时间:

aa.to_csv('pandas_to_csv', index=False)
# 6.47 s

df2csv(aa,'code_from_question', myformats=['%d','%.1f','%.1f','%.1f'])
# 4.59 s

from numpy import savetxt

savetxt(
    'numpy_savetxt', aa.values, fmt='%d,%.1f,%.1f,%.1f',
    header=','.join(aa.columns), comments=''
)
# 3.5 s

因此,您可以使用 numpy 将时间缩短两倍。当然,这是以降低灵活性为代价的(与 相比aa.to_csv)。

以 Python 3.7、pandas 0.23.4、numpy 1.15.2 为基准(xrange被替换range为使问题中的已发布函数在 Python 3 中工作)。

PS。如果您需要包含索引,savetxt则可以正常工作 - 只需传递df.reset_index().values并相应地调整格式化字符串。

2021 年更新:正如评论中指出的,pandas 的性能有了很大提高。savetxt仍然是最快的选择,但差距很小:以pandas1.3.0 和numpy1.20.3 为基准时,aa.to_csv()耗时 2.64 秒,而savetxt2.53 秒。问题 ( df2csv) 中的代码花费了 2.98 秒,使其成为当今最慢的选项。

您的里程可能会有所不同 - 2021 年的测试是在具有非常快 CPU 的 SSD 上执行的,而在 2019 年我使用的是 HDD 和较慢的 CPU。

于 2019-02-10T15:19:56.913 回答
4

使用块大小。我发现这有很大的不同。如果您手头有内存,请使用好的块大小(行数)进入内存,然后写入一次。

于 2016-01-13T11:59:25.910 回答
1

您的df_to_csv功能非常好,除了它做了很多假设并且不适用于一般情况。

如果它对您有用,那很好,但请注意,它不是通用解决方案。CSV 可以包含逗号,那么如果要写入这个元组会发生什么?('a,b','c')

pythoncsv模块将引用该值,以免出现混淆,并且如果任何值中存在引号,则会转义引号。当然,生成适用于所有情况的东西要慢得多。但我想你只有一堆数字。

你可以试试这个,看看它是否更快:

#data is a tuple containing tuples

for row in data:
    for col in xrange(len(row)):
        f.write('%d' % row[col])
        if col < len(row)-1:
            f.write(',')
    f.write('\n')

我不知道这样会不会更快。如果不是,那是因为完成了太多系统调用,所以您可能会使用StringIO而不是直接输出,然后每隔一段时间将其转储到真实文件中。

于 2013-03-15T10:25:08.880 回答