我在 docker 上使用 jupyter notebook 在我的 spark conf 文件夹 (/usr/local/spark/conf) 我有我的 hive-site.xml
<configuration>
<property>
<name>hive.metastore.uris</name>
<value>thrift://metastore-uri:9083</value>
</property>
</configuration
当我使用 R 笔记本时,以下代码可以正常工作并连接到远程配置单元元存储
library(SparkR)
as <- sparkR.session("local[*]")
sql("show tables")
但是当我在 Scala 笔记本中运行以下代码时
val sqlContext = new org.apache.spark.sql.SQLContext(sc);
sqlContext.sql("show tables").show
它在元存储本地启动并且不显示任何数据
任何提示?