我已阅读文档,但找不到以下问题的答案:
我宁愿设置一个已经在运行的 spark 集群(即添加一个 jar 以便能够使用 SnappyContext),还是必须使用捆绑的 spark?如果可能,请提供帮助:SPARK_HOME 似乎是由启动器在运行时设置的
在哪里定义 JAVA_HOME?现在我在所有 snappy 服务器节点上的 bin/spark-class 中完成了它
使用 Scala 2.11 构建 SnappyData
赞赏,赛义夫
我已阅读文档,但找不到以下问题的答案:
我宁愿设置一个已经在运行的 spark 集群(即添加一个 jar 以便能够使用 SnappyContext),还是必须使用捆绑的 spark?如果可能,请提供帮助:SPARK_HOME 似乎是由启动器在运行时设置的
在哪里定义 JAVA_HOME?现在我在所有 snappy 服务器节点上的 bin/spark-class 中完成了它
使用 Scala 2.11 构建 SnappyData
赞赏,赛义夫