1

添加依赖libraryDependencies += "org.elasticsearch" % "elasticsearch-hadoop" % "5.1.1"和刷新项目时,我得到许多未解决的依赖(级联,org.pentaho,...)。

但是,如果我添加另一个依赖项,就像libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"它工作一样,我可以在我的 scala 文件中使用该库。

那么,问题是来自 elasticsearch-hadoop 吗?我正在使用 SBT 0.13.13,但也尝试使用 0.13.8。

我从https://mvnrepository.com/artifact/org.elasticsearch/elasticsearch-hadoop/5.1.1获取了依赖项,我知道对于某些依赖项,您还需要添加存储库(解析器 += ...),但在这里它似乎不需要回购。

4

2 回答 2

1

在您的文件中添加以下内容build.sbt

resolvers += "conjars.org" at "http://conjars.org/repo"
于 2017-01-29T01:55:38.530 回答
0

可以更新你的 .sbt 文件

name:="HelloSparkApp"
version:="1.0"
scalaVersion:="2.10.4"
libraryDependencies+="org.apache.spark"%%"spark-core"%"1.5.2"

并从项目目录执行以下命令

sbt clean
sbt package
sbt eclipse
于 2017-05-17T20:49:21.160 回答