我已经在 2 台机器上安装了 spark 2.1.1,但在不同的相对位置,即在一台机器上,我安装在 NTFS 驱动器的某个位置,而在另一台机器上,我将它安装在 ext4 驱动器上。我正在尝试通过在一台机器上拥有 1 个主服务器和 1 个从属服务器以及在另一台机器上拥有 1 个从属服务器,以具有 2 个从属设备和一个主控设备的独立模式启动一个集群。
当我尝试通过start-all.sh
主节点上的脚本启动此集群时,出现以下错误:-
192.168.1.154: bash: line 0: cd: /home/<somePath>/spark-2.1.1-bin-hadoop2.7: No such file or directory
我SPARK_HOME
在各自的bashrc
文件中设置了正确的。下面是我的从机文件(在 1 台主机 + 1 台从机中)
localhost
192.168.1.154
我可以通过 ssh 远程登录到 1 个从机。我能够在每台机器上单独运行 Spark 集群。
我的理解是,当我尝试通过start-all.sh
脚本从我的主机远程启动从机时,它试图转到主节点上安装 spark 的位置,但是在从节点上,spark 安装在不同的位置,它失败了。谁能告诉我如何解决这个问题?