可以在此处找到与此问题相关的原始代码。
我对移位运算符和set_upstream
/set_downstream
方法都在我在 DAG 中定义的任务循环中工作感到困惑。当DAG的主执行循环配置如下:
for uid in dash_workers.get_id_creds():
clear_tables.set_downstream(id_worker(uid))
或者
for uid in dash_workers.get_id_creds():
clear_tables >> id_worker(uid)
该图如下所示(字母数字序列是用户 ID,也定义了任务 ID):
当我像这样配置 DAG 的主执行循环时:
for uid in dash_workers.get_id_creds():
clear_tables.set_upstream(id_worker(uid))
或者
for uid in dash_workers.get_id_creds():
id_worker(uid) >> clear_tables
图表如下所示:
第二张图是我想要的/我期望根据我对文档的阅读产生的前两个代码片段。如果我想clear_tables
在触发针对不同用户 ID 的一批数据解析任务之前先执行,我应该将其表示为clear_tables >> id_worker(uid)
编辑——这是完整的代码,自我发布最后几个问题以来已经更新,供参考:
from datetime import datetime
import os
import sys
from airflow.models import DAG
from airflow.operators.python_operator import PythonOperator
import ds_dependencies
SCRIPT_PATH = os.getenv('DASH_PREPROC_PATH')
if SCRIPT_PATH:
sys.path.insert(0, SCRIPT_PATH)
import dash_workers
else:
print('Define DASH_PREPROC_PATH value in environmental variables')
sys.exit(1)
ENV = os.environ
default_args = {
'start_date': datetime.now(),
}
DAG = DAG(
dag_id='dash_preproc',
default_args=default_args
)
clear_tables = PythonOperator(
task_id='clear_tables',
python_callable=dash_workers.clear_db,
dag=DAG)
def id_worker(uid):
return PythonOperator(
task_id=id,
python_callable=dash_workers.main_preprocess,
op_args=[uid],
dag=DAG)
for uid in dash_workers.get_id_creds():
preproc_task = id_worker(uid)
clear_tables << preproc_task
在实施@LadislavIndra 的建议后,我继续对位移运算符进行相同的反向实施,以获得正确的依赖关系图。
更新@AshBerlin-Taylor 的回答是这里发生了什么。我假设 Graph View 和 Tree View 做同样的事情,但事实并非如此。这是id_worker(uid) >> clear_tables
图表视图中的样子:
我当然不希望我的数据准备程序的最后一步是删除所有数据表!