0

我想将 spark.task.maxFailures 设置为大于 4 的值。使用 Databricks 6.4 运行时,如何设置此值?

当我执行 spark.conf.get("spark.task.maxFailures") 时,出现以下错误

java.util.NoSuchElementException: spark.task.maxFailures

以前有人在数据块上设置过这个吗?

我知道我可以使用

spark.conf.set("spark.task.maxFailures", 10)

但是不确定是否必须在集群启动时设置或之后设置?

4

1 回答 1

0

您可以更新集群高级部分中所需的 spark conf 集。

在此处输入图像描述

在此处输入图像描述

于 2021-12-06T20:15:15.773 回答