1

这些是我在 spark-env.sh 中完成的以下配置:

export SPARK_MASTER_PORT=8080
export SPARK_WORKER_CORES=4
export SPARK_WORKER_MEMORY=8g
export SPARK_WORKER_INSTANCES=1
export SPARK_DAEMON_MEMORY=512m
export SPARK_LOCAL_DIRS=/tmp/spark  
export SPARK_MASTER_IP='localhost'

slaves.sh:

localhost

之后,运行命令:./sbin/start-master.sh

输出:

启动 org.apache.spark.deploy.master.Master,登录到 /opt/Spark/spark-2.0.2-bin-hadoop2.7/logs/spark-root-org.apache.spark.deploy.master.Master- 1-s.out。

返回命令提示符。输出没有 spark-standalone 文档中提到的 url,并且输入localhost:8080显示站点不可访问。当我再次尝试运行master时,它表明它已经是一个正在运行的进程。我已经为 java、python 和 spark 设置了所有路径。我做错了什么或者还有什么要做的,以便火花主 UI 启动?或者即使所有其他网页正常加载,我的代理也会有问题吗?

注意:我使用的是 Linux 操作系统和 spark-2.0.2-bin-hadoop2.7

4

0 回答 0