在 Spark 版本 1.*
创建如下 emptyRDD:
var baseDF = hiveContextVar.createDataFrame(sc.emptyRDD[Row], baseSchema)
迁移到 Spark 2.0 时(因为 hiveContext 已被弃用,使用 sparkSession)
尝试过:
var baseDF = sparkSession.createDataFrame(sc.emptyRDD[Row], baseSchema)
虽然得到以下错误:
org.apache.spark.SparkException:此 JVM 中只能运行一个 SparkContext(请参阅 SPARK-2243)
有没有办法使用 sparkSession 创建 emptyRDD?