我已将 spark 与 hive、hadoop 与 sbt build 集成为 sbt/sbt -Pyarn -Phadoop-2.6 -Dhadoop-2.6.0 -Phive -Phive-thriftserver 程序集 sbt/sbt -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver 测试
但是当我使用 sparkSQL 创建表时,它不会在本地 mysql Metastore db 中创建任何表。它正在其他地方创造。我还在 spark 的 conf 目录中包含了 hive-site.xml 文件。