所以我一直在尝试集成 mongoDB 和 Spark,在处理完所有依赖项之后,我正在运行:
- JDK 1.8
- scala-sdk-2.11-7
- 火花版本 2.0.2
这是我的 build.sbt 文件的外观:
scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
"org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
"org.apache.spark" %% "spark-core" % "2.0.0",
"org.apache.spark" %% "spark-sql" % "2.0.0"
)
每次我运行这个简单的脚本时:
import com.mongodb.spark._
import org.apache.log4j._
object myMain {
def main(args: Array[String]): Unit = {
println("lol")
}
}
它说“无法找到或加载主类 myMain”。
我只想查看依赖项是否正常以及脚本是否会导入库并正常工作。请帮忙,我已经阅读了至少一天,除了“兼容性问题”之外找不到任何具体的提示。
newProject -> src -> 项目 (src-build), build.sbt, myMain$
这就是我在 IntelliJ 中的项目树的外观,在外部库中,我有所有通过 build.sbt 文件下载的库以及我上面写的 scala 和 java 依赖项。
谢谢!