我已经从 apache 站点下载了 spark 源代码,然后我使用 maven 构建了源代码。
spark - version 1.6.3
hadoop - version 2.7.3
scala - version 2.10.4
我已经使用以下命令来构建项目
.build/mvn -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.3 -Phive -Phive-thriftserver -Dscala-2.10 -DskipTests clean package
我已经尝试过使用版本 - Phadoop-2.4、2.6,但每次我在配置单元构建时遇到错误 -
无法在项目 spark-hive_2.10 上执行目标 net.alchim31.maven:scala-maven-plugin:3.2.2:compile (scala-compile-first): wrap: scala.reflect.internal.MissingRequirementError: object scala.runtime在编译器镜像中找不到。-> [帮助 1]