我在本地运行 spark 作业以进行调试。我已经使用 sbt 导入了 spark-core jar 文件。我在我的代码中使用 hiveContext。它抛出以下错误。 HDFS 上的根暂存目录:/tmp/hive 应该是可写的。当前权限是:rw-rw-rw-
再一次,我没有在我的本地机器上安装 spark 或 hadoop。我正在使用 sbt 导入所有 jar 并在 Intellij 中运行它们。有什么办法可以解决这个问题。
谢谢,
我在本地运行 spark 作业以进行调试。我已经使用 sbt 导入了 spark-core jar 文件。我在我的代码中使用 hiveContext。它抛出以下错误。 HDFS 上的根暂存目录:/tmp/hive 应该是可写的。当前权限是:rw-rw-rw-
再一次,我没有在我的本地机器上安装 spark 或 hadoop。我正在使用 sbt 导入所有 jar 并在 Intellij 中运行它们。有什么办法可以解决这个问题。
谢谢,