13

我试图从 [Databricks][1] 重现该示例并将其应用于 Kafka 的新连接器并触发结构化流,但是我无法使用 Spark 中的开箱即用方法正确解析 JSON ...

注意:主题以 JSON 格式写入 Kafka。

val ds1 = spark
          .readStream
          .format("kafka")
          .option("kafka.bootstrap.servers", IP + ":9092")
          .option("zookeeper.connect", IP + ":2181")
          .option("subscribe", TOPIC)
          .option("startingOffsets", "earliest")
          .option("max.poll.records", 10)
          .option("failOnDataLoss", false)
          .load()

下面的代码行不通,相信是因为json列是字符串,与from_json签名的方法不匹配...

    val df = ds1.select($"value" cast "string" as "json")
                .select(from_json("json") as "data")
                .select("data.*")

有小费吗?

[更新]示例工作: https ://github.com/katsou55/kafka-spark-structured-streaming-example/blob/master/src/main/scala-2.11/Main.scala

4

1 回答 1

25

首先,您需要为 JSON 消息定义架构。例如

val schema = new StructType()
  .add($"id".string)
  .add($"name".string)

现在您可以在如下方法中使用此架构from_json

val df = ds1.select($"value" cast "string" as "json")
            .select(from_json($"json", schema) as "data")
            .select("data.*")
于 2017-02-28T17:18:06.007 回答