我使用带有 10 个节点的 AWS EMR 5.2 实例 m4.2x large 来使用 Spark 2.0.2 运行我的 Spark 应用程序。我使用了 的属性maximizeResourceAllocation=true
。我在spark-defaults.conf中看到了以下属性:
spark.executor.instances 10
spark.executor.cores 16
spark.driver.memory 22342M
spark.executor.memory 21527M
spark.default.parallelism 320
在yarn-site.xml中,我看到了yarn.nodemanager.resource.memory-mb=24576
(24GB)。我只知道spark.executor.instances
设置为 10,因为我使用的是 10 个节点集群。但是谁能向我解释一下其他属性是如何设置的,比如驱动程序内存和执行程序内存是如何计算的?我还使用了maximizeResourceAllocation=true
.How 的属性,这对内存有什么影响?