我有一个关于 Kafka 流上的 Spark 结构化流的问题。
我有一个类型的模式:
StructType schema = new StructType()
.add("field1", StringType)
.add("field2", StringType)
.add("field3", StringType)
.add("field4", StringType)
.add("field5", StringType);
我从 Kafka 主题引导我的流,例如:
Dataset<Row> ds1 = spark
.readStream()
.format("kafka")
.option("kafka.bootstrap.servers", "brokerlist")
.option("zookeeper.connect", "zk_url")
.option("subscribe", "topic")
.option("startingOffsets", "earliest")
.option("max.poll.records", 10)
.option("failOnDataLoss", false)
.load();
接下来转换为字符串,字符串类型:
Dataset<Row> df1 = ds1.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)");
现在我想将值字段(它是一个 JSON)转换为之前转换的模式,这应该使 SQL 查询更容易:
Dataset<Row> df2 = df1.select(from_json("value", schema=schema).as("data").select("single_column_field");
Spark 2.3.1 好像不知道这个from_json
功能?
这是我的进口:
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.streaming.OutputMode;
import org.apache.spark.sql.streaming.StreamingQueryException;
import org.apache.spark.sql.types.StructType;
关于如何解决这个问题的任何想法?请注意,我不是在寻找 Scala 解决方案,而是基于纯 Java 的解决方案!