5

我的任务相对简单:对于输入文件中的每一行,测试该行是否满足给定的一组条件,如果满足,则将该行的特定列写入新文件。我已经编写了一个执行此操作的 python 脚本,但我需要一些帮助:1)提高速度,2)在列名方面的最佳工作方式(因为列号可能因文件而异),以及 3 ) 指定我的过滤条件和所需输出列的最佳方式。

1)我使用的文件包含天文图像的光度测量。每个文件大约 1e6 行乘 150 列浮点数,通常大小超过 1GB。我有一个旧的 AWK 脚本,它将在大约 1 分钟内处理这样的文件;我的 python 脚本需要 5 到 7 分钟。我经常需要调整过滤条件并重新运行几次,直到输出文件是我想要的,所以速度绝对是可取的。我发现 for 循环非常快。这就是我在循环中做事的方式,这会减慢它的速度。与将整行读入内存相比,使用 itemgetter 只选择我想要的列是一个很大的改进,但我不确定我能做些什么来进一步提高速度。这能和 AWK 一样快吗?

2)我想根据列名而不是列号来工作,因为特定数量(光子计数、背景、信噪比等)的列号可以在文件之间更改。在我的 AWK 脚本中,我总是需要检查指定条件和输出列的列号是否正确,即使过滤和输出适用于相同的数量。我在 python 中的解决方案是创建一个字典,为每个数量分配一个列号。当一个文件有不同的列时,我只需要指定一个新的字典。也许有更好的方法来做到这一点?

3) 理想情况下,我只需要指定输入和输出文件的名称、过滤条件和要输出的所需列,它们会在我的脚本顶部找到,所以我不需要去搜索代码只是为了调整一些东西。我的主要问题是未定义的变量。例如,典型条件是“SNR > 4”,但在开始从测光文件中读取行之前,实际上并未为“SNR”(信噪比)分配值。我的解决方案是使用字符串和 eval/exec 的组合。再次,也许有更好的方法?

我根本没有接受过计算机科学的培训(我是天文学的研究生)——我通常只是把一些东西拼凑在一起并调试直到它起作用。但是,针对我以上三点的优化对我的研究来说变得非常重要。我为这篇冗长的帖子道歉,但我觉得这些细节会有所帮助。除了清理/编码风格之外,您对我的任何和所有建议都将不胜感激。

非常感谢,杰克

#! /usr/bin/env python2.6

from operator import itemgetter


infile = 'ugc4305_1.phot'
outfile = 'ugc4305_1_filt.phot'

# names must belong to dicitonary
conditions = 'OBJ <= 2 and SNR1 > 4 and SNR2 > 4 and FLAG1 < 8 and FLAG2 < 8 and (SHARP1 + SHARP2)**2 < 0.075 and (CROWD1 + CROWD2) < 0.1'

input = 'OBJ, SNR1, SNR2, FLAG1, FLAG2, SHARP1, SHARP2, CROWD1, CROWD2'
    # should contain all quantities used in conditions

output = 'X, Y, OBJ, COUNTS1, BG1, ACS1, ERR1, CHI1, SNR1, SHARP1, ROUND1, CROWD1, FLAG1, COUNTS2, BG2, ACS2, ERR2, CHI2, SNR2, SHARP2, ROUND2, CROWD2, FLAG2'

# dictionary of col. numbers for the more important qunatities
columns = dict(EXT=0, CHIP=1, X=2, Y=3, CHI_GL=4, SNR_GL=5, SHARP_GL=6, ROUND_GL=7, MAJAX_GL=8, CROWD_GL=9, OBJ=10, COUNTS1=11, BG1=12, ACS1=13, STD1=14, ERR1=15, CHI1=16, SNR1=17, SHARP1=18, ROUND1=19, CROWD1=20, FWHM1=21, ELLIP1=22, PSFA1=23, PSFB1=24, PSFC1=25, FLAG1=26, COUNTS2=27, BG2=28, ACS2=29, STD2=30, ERR2=31, CHI2=32, SNR2=33, SHARP2=34, ROUND2=35, CROWD2=36, FWHM2=37, ELLIP2=38, PSFA2=39, PSFB2=40, PSFC2=41, FLAG2=42)



f = open(infile)
g = open(outfile, 'w')


# make string that extracts values for testing
input_items = []
for i in input.replace(',', ' ').split():
    input_items.append(columns[i])
input_items = ', '.join(str(i) for i in input_items)

var_assign = '%s = [eval(i) for i in itemgetter(%s)(line.split())]' % (input, input_items) 


# make string that specifies values for writing
output_items = []
for i in output.replace(',', ' ').split():
    output_items.append(columns[i])
output_items = ', '.join(str(i) for i in output_items)

output_values = 'itemgetter(%s)(line.split())' % output_items


# make string that specifies format for writing
string_format = []
for i in output.replace(',', ' ').split():
    string_format.append('%s')
string_format = ' '.join(string_format)+'\n'


# main loop
for line in f:
   exec(var_assign)
   if eval(conditions):
      g.write(string_format % tuple(eval(output_values)))
f.close()
g.close()
4

6 回答 6

2

这就是我将如何去做这样的事情......

对于您在我的机器上的原始脚本,这将在 ~35 秒内运行,而在 ~3 分钟内运行。可以添加更多优化(例如,我们只需要将一些列转换为浮点数),但这只会缩短运行时间几秒钟。

csv.DictReader正如几个人所建议的那样,您也可以在这里轻松使用。我正在避免它,因为您必须定义一种自定义方言,而且如果没有它,只需几行额外的代码就可以完成同样的事情。(各种csv模块类还检查在这种特殊情况下您不需要担心的更复杂的行为(例如引用的字符串等)。它们在许多情况下非常非常方便,但它们在这个案例。)

请注意,您还可以在调用脚本时轻松地将 infile 和 outfile 名称添加为参数,而不是硬编码它们(例如infile = sys.argv[0],等)。这也将允许您轻松地将数据输入或输出...(您可以检查sys.argv并设置infile或相应outfile的长度sys.stdin和/或sys.stdout

def main():
    infile = 'ugc4305_1.phot'
    outfile = 'ugc4305_1_filt.phot'
    process_data(infile, outfile)

def filter_conditions(row):
    for key, value in row.iteritems():
        row[key] = float(value)

    cond = (row['OBJ'] <= 2 and row['SNR1'] > 4 
       and row['SNR2'] > 4 and row['FLAG1'] < 8 
       and row['FLAG2'] < 8 
       and (row['SHARP1'] + row['SHARP2'])**2 < 0.075 
       and (row['CROWD1'] + row['CROWD2']) < 0.1
       )
    return cond

def format_output(row):
    output_columns = ('X', 'Y', 'OBJ', 'COUNTS1', 'BG1', 'ACS1', 'ERR1', 'CHI1', 
                     'SNR1', 'SHARP1', 'ROUND1', 'CROWD1', 'FLAG1', 'COUNTS2', 
                     'BG2', 'ACS2', 'ERR2', 'CHI2', 'SNR2', 'SHARP2', 'ROUND2', 
                     'CROWD2', 'FLAG2')
    delimiter = '\t'
    return delimiter.join((row[name] for name in output_columns))

def process_data(infilename, outfilename):
    column_names = ('EXT', 'CHIP', 'X', 'Y', 'CHI_GL', 'SNR_GL', 'SHARP_GL', 
                    'ROUND_GL', 'MAJAX_GL', 'CROWD_GL', 'OBJ', 'COUNTS1', 
                    'BG1', 'ACS1', 'STD1', 'ERR1', 'CHI1', 'SNR1', 'SHARP1', 
                    'ROUND1', 'CROWD1', 'FWHM1', 'ELLIP1', 'PSFA1', 'PSFB1', 
                    'PSFC1', 'FLAG1', 'COUNTS2', 'BG2', 'ACS2', 'STD2', 
                    'ERR2', 'CHI2', 'SNR2', 'SHARP2', 'ROUND2', 'CROWD2', 
                    'FWHM2', 'ELLIP2', 'PSFA2', 'PSFB2', 'PSFC2', 'FLAG2')

    with open(infilename) as infile:
        with open(outfilename, 'w') as outfile:
            for line in infile:
                line = line.strip().split()
                row = dict(zip(column_names, line))
                if filter_conditions(row.copy()):
                    outfile.write(format_output(row) + '\n')

if __name__ == '__main__':
    main()
于 2011-02-25T22:26:09.613 回答
2

我认为您没有提到它,但看起来您的数据在 csv 中。您可能会从使用csv.DictReader中得到很多。您可以一次遍历文件 1 行(避免将整个内容加载到内存中)并通过名称引用列。

如果还没有的话,你还应该看看Python 的分析器cProfile。它会告诉你程序的哪些部分花费了最多的时间来执行。

于 2011-02-25T20:05:06.247 回答
2

我在这里的第一步是摆脱exec()andeval()电话。每次评估字符串时,都必须对其进行编译,然后执行,这会增加文件每一行的函数调用开销。更不用说,eval往往会导致代码混乱,难以调试,通常应该避免。

您可以通过将逻辑放入一个易于理解的小函数来开始重构。例如,您可以eval(conditions)用函数替换,例如:

def conditions(d):
    return (d[OBJ] <= 2 and
            d[SNRI] > 4 and
            d[SNR2] > 4 and
            d[FLAG1] < 8 and ...

提示:如果您的某些条件语句失败的可能性较高,请将它们放在第一位,python 将跳过对其余条件的评估。

我会摆脱列名字典,只需在文件顶部设置一堆变量,然后通过line[COLNAME]. 这可以帮助您简化某些部分,例如条件函数,并且您可以按名称引用列,而无需分配每个变量。

于 2011-02-25T21:04:37.797 回答
1

就像nmichaels所说的,你可以使用fieldnamesdialect参数csv.DictReader来读取这个文件。然后,对于每一行,你都会有一本字典。有了字典,你就不必使用eval,并且可以使用像这样的语句

if data_item['OBJ'] <= 2 and data_item['SNR1']:
     g.write(data_item['X'], data_item['Y'], data_item['OBJ'])

由于所有evals. 不需要那种复杂性。

于 2011-02-25T21:41:29.693 回答
0

如果分析显示大量时间花在文件的实际读取和解析上,并且您将多次处理相同的原始文件,您可以尝试创建一个为使用 Python 读取而优化的中间文件格式。

可以尝试的一件事是读取文件一次,使用pickle/cPickle解析并输出结果。然后在过滤器脚本中使用 pickle/cpickle 读取中间文件。

在不太了解 python 的情况下,无法判断这是否比读取每一行并拆分它们更快。(在 c# 中我会使用二进制序列化程序,但我不知道这在 python 中是否可用)。

如果磁盘 IO 是一个瓶颈,您也可以尝试压缩您的输入文件并使用gzip模块读取它们。

于 2011-02-26T08:54:35.620 回答
0

你试过熊猫吗?

我相信 OBJ, SNR1, ... 是列名,我希望您在所有行上应用相同的条件。如果是这样的话,我建议你和熊猫一起去。

你的代码片段会是这样的......

import pandas as pd

infile = 'ugc4305_1.phot'
outfile = 'ugc4305_1_filt.phot'

df = pd.read_csv(infile)

condition = (df['OBJ'] <= 2) & (df['SRN1'] > 4) & (df['SRN2'] > 4) & (df['FLAG1'] < 8) & (df['FLAG2'] < 8) & ((df['SHARP1'] + df['SHARP2'])**2 < 0.075) & ((df['CROWD1'] + df['CROWD2']) < 0.1)
newDf = df[condition]

columnNames = ['col1', 'col2', ...] # column names you want in result

newDf = df[columnNames]

newDf.to_csv(outfile)
于 2017-12-18T06:51:08.097 回答