我有创建火花上下文的主要内容:
val sc = new SparkContext(sparkConf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext.implicits._
然后创建数据框并对数据框进行过滤和验证。
val convertToHourly = udf((time: String) => time.substring(0, time.indexOf(':')) + ":00:00")
val df = sqlContext.read.schema(struct).format("com.databricks.spark.csv").load(args(0))
// record length cannot be < 2
.na.drop(3)
// round to hours
.withColumn("time",convertToHourly($"time"))
这很好用。
但是当我尝试通过将数据帧发送到
function ValidateAndTransform(df: DataFrame) : DataFrame = {...}
获取数据框并进行验证和转换:似乎我需要
import sqlContext.implicits._
为避免错误:“value $ is not a member of StringContext”在线发生:.withColumn("time",convertToHourly( $ "time"))
但是要使用 import sqlContext.implicits._
我还需要sqlContext
在新文件中定义的任何一个,如下所示:
val sc = new SparkContext(sparkConf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
或发送到
function ValidateAndTransform(df: DataFrame) : DataFrame = {...}
function
我觉得我试图对 2 个文件(主要和验证)进行的分离没有正确完成......
关于如何设计这个的任何想法?或者只是将 sqlContext 发送到函数?
谢谢!