0

所以我一直在尝试集成 mongoDB 和 Spark,在处理完所有依赖项之后,我正在运行:

  • JDK 1.8
  • scala-sdk-2.11-7
  • 火花版本 2.0.2

这是我的 build.sbt 文件的外观:

scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
  "org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
  "org.apache.spark" %% "spark-core" % "2.0.0",
  "org.apache.spark" %% "spark-sql" % "2.0.0"
)

每次我运行这个简单的脚本时:

import com.mongodb.spark._
import org.apache.log4j._



object myMain {
  def main(args: Array[String]): Unit = {
    println("lol")
  }
}

它说“无法找到或加载主类 myMain”。


我只想查看依赖项是否正常以及脚本是否会导入库并正常工作。请帮忙,我已经阅读了至少一天,除了“兼容性问题”之外找不到任何具体的提示。

newProject -> src -> 项目 (src-build), build.sbt, myMain$

这就是我在 IntelliJ 中的项目树的外观,在外部库中,我有所有通过 build.sbt 文件下载的库以及我上面写的 scala 和 java 依赖项。
谢谢!

4

1 回答 1

0

答案是从 IntelliJ ide 更改为 Eclipse。

于 2017-06-26T14:43:20.790 回答