我正在使用 spark-shell(Spark 版本 2.1.0,使用 Scala 版本 2.11.8,OpenJDK 64 位服务器 VM,1.7.0_151)。
我导入Column
类:
scala> import org.apache.spark.sql.Column
import org.apache.spark.sql.Column
我可以定义一个Column
对象:
scala> val myCol: Column = col("blah")
myCol: org.apache.spark.sql.Column = blah
并Column
在函数定义中使用:
scala> def myFunc(c: Column) = ()
myFunc: (c: org.apache.spark.sql.Column)Unit
到目前为止,一切都很好。但是在定义一个类的时候,Column
没有找到:
scala> case class myClass(c: Column)
<console>:11: error: not found: type Column
case class myClass(c: Column)
然而,单线作品:
scala> case class myClass(c: org.apache.spark.sql.Column)
defined class myClass
或者
scala> import org.apache.spark.sql.Column; case class myClass(c: Column)
import org.apache.spark.sql.Column
defined class myClass