1

我正在尝试在 scala-spark 中使用枢轴方法

val dfOutput =  df_input.groupBy("memberlogin").pivot("country_group2").count()

然而,虽然在eclipse中创建jar时没有任何编译错误,但在spark中执行时,它给出的错误为-
Exception in thread "main" java.lang.NoSuchMethodError:

org.apache.spark.sql.GroupedData.pivot(Ljava/lang/String;)Lorg/apache/spark/sql/GroupedData;

我已经导入了所需的库,

import org.apache.spark.sql.GroupedData
import org.apache.spark.sql.functions

还,

import sqlContext.implicits._

正如很少有其他线程声称的那样。

它不起作用,无法理解,有人可以帮助或指导方向吗?

4

2 回答 2

0

添加了透视功能Spark 1.6,它可以使用DataFrame(使用 Scala、Java 或 Python)创建数据透视表。

于 2017-04-05T08:35:59.727 回答
0

Spark 1.6请查看此文档Reshaping Data with Pivot in Apache Spark 中引入的透视功能。检查API 枢轴 API

于 2017-04-05T10:50:25.910 回答