我正在尝试在 scala-spark 中使用枢轴方法
val dfOutput = df_input.groupBy("memberlogin").pivot("country_group2").count()
然而,虽然在eclipse中创建jar时没有任何编译错误,但在spark中执行时,它给出的错误为-
Exception in thread "main" java.lang.NoSuchMethodError:
org.apache.spark.sql.GroupedData.pivot(Ljava/lang/String;)Lorg/apache/spark/sql/GroupedData;
我已经导入了所需的库,
import org.apache.spark.sql.GroupedData
import org.apache.spark.sql.functions
还,
import sqlContext.implicits._
正如很少有其他线程声称的那样。
它不起作用,无法理解,有人可以帮助或指导方向吗?