我有一个在几台机器上运行的 Spark 独立集群。所有工作人员都使用 2 个内核和 4GB 内存。我可以使用 启动作业服务器./server_start.sh --master spark://ip:7077 --deploy-mode cluster --conf spark.driver.cores=2 --conf spark.driver.memory=4g
,但是每当我尝试启动具有超过 2 个内核的服务器时,驱动程序的状态就会卡在“已提交”,并且没有工作人员接手这项工作。
我尝试在 4 个内核上启动 spark-shell,./spark-shell --master spark://ip:7077 --conf spark.driver.cores=4 --conf spark.driver.memory=4g
并且工作在 2 个工作人员(每个 2 个内核)之间共享。spark-shell 作为应用程序而不是驱动程序启动。
有没有办法在多个工人之间运行驱动程序?或者我可以将作业服务器作为应用程序而不是驱动程序运行吗?