气流:如何重新运行依赖的DAG

问题描述 投票:0回答:2

假设我具有以下DAG依赖项:

        /> DAG B -->....
       /
      /
DAG A ---> DAG C -->...
      \
       \
        \> DAG D -->...

这些DAG每天运行,并且DAG B,C,D分别消耗DAG A的输出。

[如果DAG A失败(例如Spark作业有错误,并且我们想在修复后重新执行它),如何确保我们也重新运行DAG B,C,D等,以便现在它们以固定状态运行DAG A输出?可以自动完成吗?

hadoop bigdata airflow airflow-operator
2个回答
1
投票

您可以有单独的Main DAGcontroller_dag),然后使用TriggerDagRunOperator触发不同的DAG。

使用TriggerDagRunOperator的任务之间的依赖关系可以通过以下方式设置:

dag_a >> [dag_b, dag_c, dag_d] >> ...

0
投票
© www.soinside.com 2019 - 2024. All rights reserved.