我理解的是 task 的执行状态是和 spark-submit 脚本挂钩的,而不是 spark 程序。但是定义 DAG 的时候,我希望是在 spark 程序成功完成的时候再执行下一个 task,而不是sh文件执行成功,请问有办法实现吗?
我理解的是 task 的执行状态是和 spark-submit 脚本挂钩的,而不是 spark 程序。但是定义 DAG 的时候,我希望是在 spark 程序成功完成的时候再执行下一个 task,而不是sh文件执行成功,请问有办法实现吗?
这是两个进程之间的交互,仔细理解一下你会发现spark-submit的时候是把作业提交给了集群,集群没有给提供对外控制作业的接口,所以你只能看着它们自动执行,如果想自己控制 你可以看看基于yarn的自定义开发