在spark ui中使用spark sql,第一个任务通常很快完成,但最后一个任务需要很长时间(一个多小时)监控它,它似乎只在一个节点上工作我该如何解决?repartition 选项被慷慨地给出了,但它没有效果 sql 查询有很多 JOIN .. 有问题吗?(火花版本 2.1)
在spark ui中使用spark sql,第一个任务通常很快完成,但最后一个任务需要很长时间(一个多小时)监控它,它似乎只在一个节点上工作我该如何解决?repartition 选项被慷慨地给出了,但它没有效果 sql 查询有很多 JOIN .. 有问题吗?(火花版本 2.1)