这是一个包含 Hadoop 2.5.0、Spark 1.2.0、Scala 2.10 的集群,由 CDH 5.3.2 提供。我使用了一个编译好的 spark-notebook 发行版
Spark-Notebook 似乎默认找不到 Hive 元存储。
如何hive-site.xml
为 spark-notebook 指定位置以便它可以加载 Hive 元存储?
这是我尝试过的:
将包含 hive-site.xml 的 /etc/hive/conf 中的所有文件链接到当前目录
在 bash 中指定 SPARK_CONF_DIR 变量