1

我已阅读文档,但找不到以下问题的答案:

  • 我宁愿设置一个已经在运行的 spark 集群(即添加一个 jar 以便能够使用 SnappyContext),还是必须使用捆绑的 spark?如果可能,请提供帮助:SPARK_HOME 似乎是由启动器在运行时设置的

  • 在哪里定义 JAVA_HOME?现在我在所有 snappy 服务器节点上的 bin/spark-class 中完成了它

  • 使用 Scala 2.11 构建 SnappyData

赞赏,赛义夫

4

1 回答 1

0

目前,我们不支持使用 Stock Spark 运行 Snappy,但我们正在努力实现这一目标。现在你可以使用 Snappy 版本的 Spark。

对于 Q2,您可以在启动 Snappy 服务器之前在命令行中设置 JAVA_HOME。

我们还没有使用 scala 2.11 测试过 Snappy。所以不确定会出现什么问题。

于 2016-03-22T17:44:57.180 回答