我有以下设置: - HDFS - Hive - 远程 Hive Metastore(和 Metastore 数据库) - Apache Spark(从https://archive.apache.org/dist/spark/spark-2.4 下载和安装。 3/ )
我可以按预期使用 Hive,创建表 - 从 HDFS 读取数据等等。但是,无法通过 Hive 支持运行 spark。每当我跑步val sparkSession = SparkSession.builder().appName("MyApp").enableHiveSupport().getOrCreate()
我明白了java.lang.IllegalArgumentException: Unable to instantiate SparkSession with Hive support because Hive classes are not found.
Hive 类在路径中,我已经复制了 hive-site.xml、core-site.xml 和 hdfs-site.xml
我是否需要在配置单元支持的情况下构建火花(如此处所述:https ://spark.apache.org/docs/latest/building-spark.html#building-with-hive-and-jdbc-support )才能获得火花与蜂巢一起工作?
是否有可用的带有 Hive 支持 tar 的 Spark,我可以提取它而不是从源代码构建?
谢谢!