我使用参数在 YARN 上运行我的 Spark 应用程序:
在 spark-defaults.conf 中:
spark.master yarn-client
spark.driver.cores 1
spark.driver.memory 1g
spark.executor.instances 6
spark.executor.memory 1g
在纱线站点.xml 中:
yarn.nodemanager.resource.memory-mb 10240
所有其他参数都设置为默认值。
我有一个 6 节点集群,并且 Spark 客户端组件安装在每个节点上。每次我运行应用程序时,Spark UI 中只有 2 个执行程序和 1 个驱动程序可见。执行者出现在不同的节点上。
为什么 Spark 不能创建更多的执行者?为什么只有 2 而不是 6?
我发现了一个非常相似的问题:Apache Spark: setting executor instances doesn't change the executors,但增加 memoty-mb 参数对我的情况没有帮助。