4

我有一个使用 Apache NiFi 接收器的 Spark Streaming Scala 项目。这些项目在 Eclipse/Scala IDE 下运行良好,现在我想打包它以进行部署。当我将其添加为

libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"

sbt 假定它是一个 Scala 库并尝试解决它。

如何将 NiFi 接收器及其所有依赖项添加到项目的 SBT 文件中?

另外,是否可以将依赖项添加到本地目录而不是 sbt 尝试解决?

提前致谢。

这是我的 sbt 文件内容:

name := "NiFi Spark Test"

version := "1.0"

scalaVersion := "2.10.5"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.2" % "provided"
libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"
4

2 回答 2

5

libraryDependencies += "org.apache.nifi" %% "nifi-spark-receiver" % "0.3.0"

双 % 用于将 scala 版本添加为 maven 工件的后缀。这是必需的,因为不同的 scala 编译器版本会产生不兼容的字节码。如果你想使用 maven 的 java 库,那么你应该使用单个%字符

libraryDependencies += "org.apache.nifi" % "nifi-spark-receiver" % "0.3.0"
于 2015-11-29T18:41:20.653 回答
1

我还发现我可以将项目依赖的库放入 lib 文件夹中,它们将在组装过程中被拾取。

于 2015-11-30T04:35:28.940 回答