所以我的目标是创建一个带有 BigQueryOperators 的 Dag,我可以在我的 SQL 中使用参数化的目标表在 Airflow 中发送它。我检查了很多关于如何向 PythonOperators 发送参数以便在 Airflow 中使用 --conf 调用它们的主题,但我不知道如何将相同的方式应用于 BigQueryOperators 的参数。
我的 dag.py 看起来像这样:
import airflow
import blabla..
from airflow.contrib.operators.bigquery_operator import BigQueryOperator
with DAG(
"TestPython",
schedule_interval=None,
default_args=default_args,
max_active_runs=1,
catchup=False,
) as dag:
stepOne = BigQueryOperator(
task_id="stepOne",
sql="SELECT * FROM `testTable` ",
destination_dataset_table=" **variableTable** ",
write_disposition="WRITE_TRUNCATE",
use_legacy_sql=False,
)
stepOne
我想知道是否有办法使用气流 trigger_dag 命令或其他东西设置目标表名称(当然,当它没有设置时有一个默认值,所以它仍然可以上传到我的 Dag 存储桶中)
如果有什么不清楚的地方,我可以提供更多的细节和我尝试做的方法。