0

我似乎找不到使用 conf/servers 中设置的所有服务器启动 shell 的方法

只发现可以使用 /bin/snappy-job.sh 提交到集群作业,我在其中指定了引导位置,但想尝试实时 shell 使用整个集群执行一些测试

谢谢,

赛义夫

4

1 回答 1

2

请看这个链接。它讲述了如何启动 spark-shell 并将其连接到 snappy store。

http://snappydatainc.github.io/snappydata/connectingToCluster/#using-the-spark-shell-and-spark-submit

本质上,您需要提供定位器属性,并且此定位器与您用于启动 snappy 集群的定位器相同。

$ bin/spark-shell --master local[*] --conf snappydata.store.locators=locatorhost:port --conf spark.ui.port=4041

请注意,上面创建了一个不同的计算集群来运行您的程序。从这个 shell 运行代码时,snappy 集群不用于计算。所需的表定义和数据以高效的方式从 snappy 存储中获取。

将来,我们可能会让这个 shell 连接到 snappy 集群,这样它就可以使用 snappy 集群本身作为它的计算集群。

于 2016-03-22T17:49:52.053 回答