1

我在 docker 上使用 jupyter notebook 在我的 spark conf 文件夹 (/usr/local/spark/conf) 我有我的 hive-site.xml

<configuration>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://metastore-uri:9083</value>
  </property>
</configuration

当我使用 R 笔记本时,以下代码可以正常工作并连接到远程配置单元元存储

library(SparkR)
as <- sparkR.session("local[*]")
sql("show tables")

但是当我在 Scala 笔记本中运行以下代码时

val sqlContext = new org.apache.spark.sql.SQLContext(sc);    
sqlContext.sql("show tables").show

它在元存储本地启动并且不显示任何数据

任何提示?

4

0 回答 0