我正在使用以独立模式配置的 Spark 2.2.0 集群。Cluster 有 2 台八核机器。该集群专门用于 Spark 作业,没有其他进程使用它们。我有大约 8 个 Spark Streaming 应用程序在这个集群上运行。
我明确地将 SPARK_WORKER_CORES(在 spark-env.sh 中)设置为 8,并使用 total-executor-cores 设置为每个应用程序分配一个核心。此配置降低了在多个任务上并行工作的能力。如果一个阶段在具有 200 个分区的分区 RDD 上工作,则一次只执行一个任务。我希望 Spark 做的是为每个作业和进程并行启动单独的线程。但我找不到单独的 Spark 设置来控制线程数。
因此,我决定尝试将每台机器上的核心数量(即 spark-env.sh 中的 SPARK_WORKER_CORES)增加到 1000 个。然后我为每个 Spark 应用程序分配了 100 个内核。我发现这次 spark 开始并行处理 100 个分区,这表明正在使用 100 个线程。
我不确定这是否是影响 Spark 作业使用的线程数的正确方法。
问问题
1724 次
1 回答
5
你混淆了两件事:
- 集群管理器属性
SPARK_WORKER_CORES
——worker 可以提供的内核总数。使用它来控制 Spark 总共应该使用的一小部分资源 - 应用程序属性
--total-executor-cores
/spark.cores.max
- 应用程序从集群管理器请求的核心数。使用它来控制应用内并行度。
只要第一个不限制,只有第二个直接负责应用程序并行性。
在CORE
Spark 中也是线程的同义词。如果你:
使用 total-executor-cores 设置为每个应用分配一个核心。
然后你专门分配一个数据处理线程。
于 2018-01-29T10:05:23.037 回答