3

我有两个 python 文件(proc1.py 和 proc2.py)调用一些 BaseOperator 来做一些处理。工作流程是这样的(为便于阅读而简化):

proc1:
calculate1->calcualte2->end
def generate_proc1_dag(dag):
   run_this = BaseOperator()
   cal1 = Calculate1()
   cal1.set_upstream(run_this)
   cal2 = calcualte2()
   cal2.set_upstream(cal1)
   end = BaseOperator()
   end.set_upstream(cal2)
proc1_dag = DAG(dag_id='proc1', default_args=ARGS, schedule_interval=None)
generate_proc1_dag(proc1_dag)

proc2 (similar to proc1):
calcualteA->calcualteB->end

proc2.py 的操作应该在 proc1 完成后开始。结果,我尝试创建一个新的 DAG (run_all.py),并在其中进行了尝试:

def generate_run_all_dag(dag):
   run_this = BaseOperator()
   global proc1_dag
   global proc2_dag

   generate_proc1_dag(proc1_dag)
   proc1_dag.set_upstream(run_this)

   generate_proc2_dag(proc2_dag)
   proc2_dag.set_upstream(proc1_dag)

   end = BaseOperator()
   end.set_upstream(proc2_dag)

run_all_dag = DAG(...)
generate_run_all_dag(run_all_dag)

首先,我不能 100% 确定我可以像在 run_all.py 中那样使用 set_upstream,但是,我不知道还有其他方式可以提到 proc2 应该在 proc1 之后启动。

现在,当我使用它时,我得到以下异常:airflow.exceptions.AirflowException:试图在还没有 DAG 的任务之间创建关系。为至少一项任务设置 DAG,然后重试

任何帮助将不胜感激。 注意: proc1 和 proc2 独立工作,并且(如果可能)不应对它们进行任何更改。

4

1 回答 1

4

您应该为此使用“ExternalTask​​Sensor”。所以你的 proc2.py 将包含如下内容:

sensor = ExternalTaskSensor ( 
    task_id='proc2_sensor_task',
    external_dag_id='proc1',
    external_task_id='proc1_task_id',
    dag=dag
)

proc_2_task.set_upstream(sensor)

但是,要使其正常工作,您需要在 proc1.py 和 proc2.py 中定义 proc1_task_id 和 proc_2_task。

我建议您查看此处的教程,了解如何完成此操作:https ://airflow.incubator.apache.org/tutorial.html

于 2017-01-05T13:44:24.720 回答