根据我在尝试回答这个问题时获得的知识,我得出的结论是,Airflow 并不是这项工作的工具。
Airflow 专为预定的幂等 DAG 设计。DagRun 还必须有一个唯一的execution_date
; 这意味着在完全相同的开始时间运行相同的 DAG(如果我们同时收到两个文档,实际上是不可能的。当然,我们可以立即安排下一个 DagRun 连续,但是这个限制应该证明任何在某种程度上,尝试以这种方式使用 Airflow 永远是一种黑客行为。
我发现最可行的解决方案是改用Prefect,它的开发旨在克服 Airflow 的一些限制:
“Prefect 假设流程可以在任何时候以任何理由运行。”
Prefect 的 DAG 等价物是 Flow;我们可以利用的流程的一个关键优势是易于参数化。然后,通过一些线程,我们可以为流中的每个元素运行 Flow。这是一个示例流 ETL 管道:
import time
from prefect import task, Flow, Parameter
from threading import Thread
def stream():
for x in range(10):
yield x
time.sleep(1)
@task
def extract(x):
# If 'x' referenced a document, in this step we could load that document
return x
@task
def transform(x):
return x * 2
@task
def load(y):
print("Received y: {}".format(y))
with Flow("ETL") as flow:
x_param = Parameter('x')
e = extract(x_param)
t = transform(e)
l = load(t)
for x in stream():
thread = Thread(target=flow.run, kwargs={"x": x})
thread.start()