1

我正在使用 ruffus 编写管道。我有一个被并行调用多次的函数,它创建了几个文件。我想创建一个函数“combineFiles()”,在创建所有这些文件后调用该函数。由于它们在集群上并行运行,因此它们不会一起完成。我编写了一个函数“getFilenames()”,它返回需要创建的文件名集,但我怎样才能让 combineFiles() 等待它们出现呢?

我尝试了以下方法:

@pipelineFunction
@files(getFilenames)
def combineFiles(filenames):
  # I should only be called if every file in the list 'filenames' exists

我也试过装饰器:

@merge(getFilenames)

但这也不起作用。在生成 getFilenames 给出的文件之前,combineFiles 仍然会被错误地调用。如何使 combineFiles 以这些文件的存在为条件?

谢谢。

4

1 回答 1

2

我是 Ruffus 的开发者。我不确定我是否完全理解你想要做的事情,但这里是:

等待需要不同时间才能完成的作业才能运行管道的下一阶段正是 Ruffus 的目的,因此希望这很简单。

第一个问题是您是否知道预先创建了哪些文件,即在管道运行之前?让我们先假设你这样做。

from ruffus import *
filenames = ["one.file", "two.file", "three.file"]

让我们编写一个虚拟函数,每次调用它都会创建一个文件。在 Ruffus 中,任何输入和输出文件名都分别包含在前两个参数中。我们没有输入文件名,所以我们的函数调用应该如下所示:

create_file(None, "one.file")
create_file(None, "two.file")
create_file(None, "three.file")

create_file 的定义如下所示:

@files([(None, fn) for fn in filenames])
def create_file(no_input_file_name, output_file_name):
    open(output_file_name, "w").write("dummy file")

这些文件中的每一个都将在对 create_file 的 3 次单独调用中创建。如果您愿意,这些可以并行运行。

pipeline_run([create_file], multiprocess = 5)

现在合并文件。“@Merge”装饰器确实是为此而设置的。我们只需要将它链接到上一个函数:

@merge(create_file, "merge.file")
def merge_file(input_file_names, output_file_name):
    output_file = open(output_file_name, "w")
    for i in input_file_names:
        output_file.write(open(i).read())

只有当所有文件都从对 create_file() 的三个调用中准备好时,才会调用 merge_file。

整个代码如下:

from ruffus import *
filenames = ["one.file", "two.file", "three.file"]

from random import randint
from time import sleep

@files([(None, fn) for fn in filenames])
def create_file(no_input_file_name, output_file_name):
    # simulate create file process of indeterminate complexity
    sleep(randint(1,5))
    open(output_file_name, "w").write("dummy file")

@merge(create_file, "merge.file")
def merge_file(input_file_names, output_file_name):
    output_file = open(output_file_name, "w")
    for i in input_file_names:
        output_file.write(open(i).read())


pipeline_run([merge_file], multiprocess = 5)

这是结果:

>>> pipeline_run([merge_file], multiprocess = 5)

    Job = [None -> two.file] completed
    Job = [None -> three.file] completed
    Job = [None -> one.file] completed
Completed Task = create_file
    Job = [[one.file, three.file, two.file] -> merge.file] completed
Completed Task = merge_file
于 2010-03-26T13:03:06.180 回答