0

我正在使用下面的代码在 Qubole Notebook 中运行,并且代码运行成功。

case class cls_Sch(Id:String, Name:String)
class myClass { 
    implicit val sparkSession = org.apache.spark.sql.SparkSession.builder().enableHiveSupport().getOrCreate()
    sparkSession.sql("set spark.sql.crossJoin.enabled = true")
    sparkSession.sql("set spark.sql.caseSensitive=false")   
    import sparkSession.sqlContext.implicits._
    import org.apache.hadoop.fs.{FileSystem, Path, LocatedFileStatus, RemoteIterator, FileUtil}
    import org.apache.hadoop.conf.Configuration 
    import org.apache.spark.sql.DataFrame

    def my_Methd() {                

        var my_df = Seq(("1","Sarath"),("2","Amal")).toDF("Id","Name")      

        my_df.as[cls_Sch].take(my_df.count.toInt).foreach(t => {            

            println(s"${t.Name}")

        })              
    }
}
val obj_myClass = new myClass()
obj_myClass.my_Methd()

在此处输入图像描述

但是,当我在 Qubole 的分析中运行相同的代码时,我收到以下错误。

在此处输入图像描述

当我取出下面的代码时,它在 Qubole 的 Anlayze 中运行良好。

my_df.as[cls_Sch].take(my_df.count.toInt).foreach(t => {            

            println(s"${t.Name}")

        })

我相信在某个地方我必须改变case类的用法。

我正在使用 Spark 2.3。

有人可以让我知道如何解决这个问题。

如果您需要任何其他详细信息,请告诉我。

4

2 回答 2

0

无论出于何种原因,内核在使用数据集时都会发现问题。我做了两个与 Apache Toree 一起工作的测试:

在此处输入图像描述

于 2019-07-10T15:46:06.137 回答
0

您所要做的就是拥有import spark.implicits._my_Methd() 函数的内部。

def my_Methd() {   

    import spark.implicits._     

    var my_df = Seq(("1","Sarath"),("2","Amal")).toDF("Id","Name")      

    my_df.as[cls_Sch].take(my_df.count.toInt).foreach(t => {            

        println(s"${t.Name}")

    })              
} 
于 2019-11-21T00:07:34.953 回答