0

我正在使用火花1.6。我正在使用 spark 上下文创建 hivecontext。当我将数据保存到配置单元时,它会出错。我正在使用cloudera vm。我的蜂巢位于 cloudera vm 内,并在我的系统上启动。我可以使用 IP 访问虚拟机。我已经在 vm 上启动了 thrift 服务器和 hiveserver2。我有用户节俭服务器 urihive.metastore.uris

 val hiveContext = new HiveContext(sc)
    hiveContext.setConf("hive.metastore.uris", "thrift://IP:9083")
............
............
 df.write.mode(SaveMode.Append).insertInto("test")

我收到以下错误:

FAILED: SemanticException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClien‌​t
4

1 回答 1

0

可能在 spark conf 文件夹中,hive-site.xml 不可用,我在下面添加了详细信息。

在 spark 配置文件夹中添加 hive-site.xml。

在 hive 配置文件夹中创建一个指向 hive-site.xml 的符号链接。

sudo ln -s /usr/lib/hive/conf/hive-site.xml /usr/lib/spark/conf/hive-site.xml

完成上述步骤后,重新启动 spark-shell 应该会有所帮助。

于 2017-09-13T17:08:49.393 回答