0

如网站描述:

但是,由于 Hive 有大量的依赖关系,所以它没有包含在默认的 Spark 程序集中。-- http://spark.apache.org/docs/latest/sql-programming-guide.html#hive-tables

那么,从http://spark.apache.org/downloads.html下载的 spark1.6(Hadoop 2.6 的预构建)是否 支持 hive?我该如何确认?

4

0 回答 0