4

我正在使用 Spark 2.1.1 (kafka 0.10+) 阅读 Kafka 主题,并且有效负载是 JSON 字符串。我想用模式解析字符串并推进业务逻辑。

每个人似乎都建议我应该使用它from_json来解析 JSON 字符串,但是,它似乎不适用于我的情况。错误是

not found : value from_json 
.select(from_json($"json", txnSchema) as "data")

当我在 spark shell 中尝试以下几行时,它工作得很好 -

val df = stream
  .select($"value" cast "string" as "json")
  .select(from_json($"json", txnSchema) as "data")
  .select("data.*")

任何想法,我在代码中做错了什么才能看到这部分在 shell 中工作,而不是在 IDE/编译时?

这是代码:

import org.apache.spark.sql._

object Kafka10Cons3 extends App {
  val spark = SparkSession
    .builder
    .appName(Util.getProperty("AppName"))
    .master(Util.getProperty("spark.master"))
    .getOrCreate

  val stream = spark
    .readStream
    .format("kafka")
    .option("kafka.bootstrap.servers", Util.getProperty("kafka10.broker"))
    .option("subscribe", src_topic)
    .load

  val txnSchema = Util.getTxnStructure
  val df = stream
    .select($"value" cast "string" as "json")
    .select(from_json($"json", txnSchema) as "data")
    .select("data.*")
}
4

1 回答 1

13

您可能只是缺少相关的导入 - import org.apache.spark.sql.functions._

您已导入spark.implicits._and org.apache.spark.sql._,但这些都不会在functions.


我也在导入com.wizzardo.tools.json它,它看起来也有一个from_json函数,它一定是编译器选择的(因为它是首先导入的?)并且显然与我的 spark 版本不兼容

确保您没有from_json从其他 json 库导入函数,因为该库可能与您使用的 spark 版本不兼容。

于 2017-05-19T19:31:17.887 回答