-1

在spark ui中使用spark sql,第一个任务通常很快完成,但最后一个任务需要很长时间(一个多小时)监控它,它似乎只在一个节点上工作我该如何解决?repartition 选项被慷慨地给出了,但它没有效果 sql 查询有很多 JOIN .. 有问题吗?(火花版本 2.1)

在此处输入图像描述

在此处输入图像描述

4

0 回答 0