答案 1:
您需要通过从它们中删除 .template 作为从属和 spark-env.sh 来重命名文件。
假设有两台机器 10.1.1.11(A) 和 10.1.1.12(B) 并且您想在机器 A 上运行 spark master 并在 A 和 B 上运行 worker,那么在从属服务器中,您应该编写 worker 将在其上运行的所有 IP:
样本奴隶文件
10.1.1.11
10.1.1.12
示例 spark-env.sh 文件
export SPARK_MASTER_MEMORY=1024M
export SPARK_DRIVER_MEMORY=1024M
export SPARK_WORKER_INSTANCES=1
export SPARK_EXECUTOR_INSTANCES=1
export SPARK_WORKER_MEMORY=1024M
export SPARK_EXECUTOR_MEMORY=1024M
export SPARK_WORKER_CORES=2
export SPARK_EXECUTOR_CORES=2
export SPARK_MASTER_IP=10.1.1.11
export SPARK_MASTER_WEBUI_PORT=8081
您可以在此处使用更多选项配置 spark-env.sh(只是一个脚本文件)
答案 2:
您可以通过编辑 spark-env.sh 来更改您的 Spark Web UI 端口以包含SPARK_MASTER_WEBUI_PORT=8081
然后您可以在 10.1.1.11:8081 上访问 spark web ui。
如果您收到无法解析主机名 ,请在此处查看我的答案。
答案 3:
您可以在 slaves 文件中更改将在其上运行 worker 的节点。