我在 SparkSQL 中有一个小程序,在我的 Mac OS X 本地机器上使用 100% 的 4 cpu(使用 --master local[*] 选项时)。但是当我在基于 Debian Jessie 的虚拟机上使用相同的选项执行相同的代码时,它只使用 1 个 cpu。看起来它无法分配超过 1 个 cpu,无论您发送什么 --master 选项。
我在这两种情况下都使用 spark-2.1.0-bin-hadoop2.7 和 java 8。
有什么已知的问题吗?
提前致谢,
我在 SparkSQL 中有一个小程序,在我的 Mac OS X 本地机器上使用 100% 的 4 cpu(使用 --master local[*] 选项时)。但是当我在基于 Debian Jessie 的虚拟机上使用相同的选项执行相同的代码时,它只使用 1 个 cpu。看起来它无法分配超过 1 个 cpu,无论您发送什么 --master 选项。
我在这两种情况下都使用 spark-2.1.0-bin-hadoop2.7 和 java 8。
有什么已知的问题吗?
提前致谢,