0

我有这个:

import spark.implicits._
import org.apache.spark.sql.catalyst.encoders.RowEncoder

val mydata: Dataset[Row] = spark.read.format("csv").option("header", true).option("inferSchema", true).load("mydata.csv")
// CSV header: Time,Area,City
// CSV values: "2016-01","A1","NY"
//             "2016-01","AB","HK" etc

// ...somewhere in my aggregate:
def bufferEncoder: Encoder[Array[(String, Row)]] = ....

对于Array我可以写的内部元组:

val rowEncoder = RowEncoder(mydata.schema)
Encoders.tuple(Encoders.STRING, rowEncoder)

但是我怎样才能Encoder为外部写Array呢?

4

1 回答 1

0

您需要使用RowEncoder完整的结构:

val enc = RowEncoder(StructType(Seq(
    StructField("data", ArrayType(
        StructType(Seq(StructField("k", StringType), 
        StructField("v", df.schema))))))))

并转换数据以反映这一点:

Row(Seq(Row(string, Row(...), Row(sting, Row(...))))

或对所有字段使用静态编码器。

于 2017-03-11T13:46:50.143 回答