4

在以下代码段中,该tryParquet函数尝试从 Parquet 文件中加载数据集(如果存在)。如果不是,它会计算、保存并返回提供的数据集计划:

import scala.util.{Try, Success, Failure}
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.Dataset

sealed trait CustomRow

case class MyRow(
  id: Int,
  name: String
) extends CustomRow

val ds: Dataset[MyRow] =
  Seq((1, "foo"),
      (2, "bar"),
      (3, "baz")).toDF("id", "name").as[MyRow]

def tryParquet[T <: CustomRow](session: SparkSession, path: String, target: Dataset[T]): Dataset[T] =
    Try(session.read.parquet(path)) match {
      case Success(df) => df.as[T] // <---- compile error here
      case Failure(_)  => {
        target.write.parquet(path)
        target
      }
    }

val readyDS: Dataset[MyRow] =
    tryParquet(spark, "/path/to/file.parq", ds)

但是,这会在以下位置产生编译错误df.as[T]

找不到存储在数据集中的类型的编码器。通过导入 spark.implicits._ 支持原始类型(Int、String 等)和产品类型(案例类)

未来版本中将添加对序列化其他类型的支持。

案例成功(df)=> df.as[T]

tryParquet可以通过强制转换df返回一个无类型DataFrame并让调用者强制转换为所需的构造函数来规避这个问题。但是,如果我们希望类型由函数内部管理,有什么解决方案吗?

4

1 回答 1

12

看起来可以通过Encoder在类型参数中使用一个:

import org.apache.spark.sql.Encoder

def tryParquet[T <: CustomRow: Encoder](...)

这样编译器可以证明df.as[T]在构造对象时提供了一个编码器。

于 2017-09-21T16:09:06.633 回答