两天前我已经开始探索火花。所以我对它很陌生。我的用例是在我用 spark-shell 编写的 scala 代码中访问外部 jar 中存在的 java 函数。但我认为我没有正确加载我的罐子。这是我正在做的
spark-shell --master local[2] --jars pathToJarsWithComma --conf="spark.driver.extraClassPath=pathToJarsWithColon" --conf="spark.executor.extraClassPath=pathToJarsWithColon"
这就是我启动我的 spark-shell 并传递所有必需的 jar 的方式。每当我试图调用java静态函数时:
rdd1.collect.foreach(a=>MyClass.myfuncttion(a))
我收到错误消息:
<console>:26: error: not found: value MyClass
我想知道我的理解是否正确。我们可以通过加载外部 jar 在 spark 中使用 java 函数吗?如果是,那么我在这里做错了什么。请指导。