12

我正在使用 Apache Spark 2.0 并case classDetaSet. 当我尝试根据如何在数据集中存储自定义对象来定义自定义编码器时?,因为java.time.LocalDate我得到了以下异常:

java.lang.UnsupportedOperationException: No Encoder found for java.time.LocalDate
- field (class: "java.time.LocalDate", name: "callDate")
- root class: "FireService"
at org.apache.spark.sql.catalyst.ScalaReflection$.org$apache$spark$sql$catalyst$ScalaReflection$$serializerFor(ScalaReflection.scala:598)
at org.apache.spark.sql.catalyst.ScalaReflection$$anonfun$9.apply(ScalaReflection.scala:592)
at org.apache.spark.sql.catalyst.ScalaReflection$$anonfun$9.apply(ScalaReflection.scala:583)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.immutable.List.foreach(List.scala:381)
at scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241)
............

以下是代码:

case class FireService(callNumber: String, callDate: java.time.LocalDate)
implicit val localDateEncoder: org.apache.spark.sql.Encoder[java.time.LocalDate] = org.apache.spark.sql.Encoders.kryo[java.time.LocalDate]

val fireServiceDf = df.map(row => {
val dateFormatter = java.time.format.DateTimeFormatter.ofPattern("MM/dd /yyyy")
FireService(row.getAs[String](0),  java.time.LocalDate.parse(row.getAs[String](4), dateFormatter))
})

我们如何为 spark 定义第三方 api 的编码器?

更新

当我为整个案例类创建编码器时,df.map..将对象映射为二进制,如下所示:

implicit val fireServiceEncoder: org.apache.spark.sql.Encoder[FireService] = org.apache.spark.sql.Encoders.kryo[FireService]

val fireServiceDf = df.map(row => {
 val dateFormatter = java.time.format.DateTimeFormatter.ofPattern("MM/dd/yyyy")
 FireService(row.getAs[String](0), java.time.LocalDate.parse(row.getAs[String](4), dateFormatter))
})

fireServiceDf: org.apache.spark.sql.Dataset[FireService] = [value: binary]

我期待 FireService 的地图,但返回地图的二进制文件。

4

1 回答 1

5

正如最后一条评论所说,“如果类包含一个字段 Bar ,则您需要整个对象的编码器。” 您需要为FireService自己提供一个隐式编码器;否则 Spark 会使用SQLImplicits.newProductEncoder[T <: Product : TypeTag]: Encoder[T]. 从 type 中可以看出,它没有implicit对字段使用任何 Encoder 参数,所以它不能使用 Presence of localDateEncoder

可以更改 Spark 以处理此问题,例如使用 Shapeless 库或直接使用宏;我不知道这是否是未来的计划。

于 2016-08-03T10:02:52.550 回答