我有一个从外部源获取数据的 JavaDStream。我正在尝试集成 Spark Streaming 和 SparkSQL。众所周知,JavaDStream 是由 JavaRDD 的 . 当我有 JavaRDD 时,我只能应用函数 applySchema()。请帮助我将其转换为 JavaRDD。我知道 scala 中有一些函数,而且它更容易。但是用Java帮助我。
问问题
8397 次
3 回答
5
您不能将 DStream 转换为 RDD。正如您所提到的, DStream 包含 RDD。访问 RDD 的方法是使用 . 对 DStream 的每个 RDD 应用一个函数foreachRDD
。请参阅文档:https://spark.apache.org/docs/1.1.0/api/java/org/apache/spark/streaming/api/java/JavaDStreamLike.html#foreachRDD(org.apache.spark.api. java.function.Function2)
于 2014-10-31T07:08:02.717 回答
1
您必须首先使用 forEachRDD 访问 DStream 中的所有 RDD,如下所示:
javaDStream.foreachRDD( rdd => {
rdd.collect.foreach({
...
})
})
于 2015-09-29T01:49:08.120 回答
0
我希望这有助于将 JavaDstream 转换为 JavaRDD!
JavaDStream<String> lines = stream.map(ConsumerRecord::value);
//Create JavaRDD<Row>
lines.foreachRDD(new VoidFunction<JavaRDD<String>>() {
@Override
public void call(JavaRDD<String> rdd) {
JavaRDD<Row> rowRDD = rdd.map(new Function<String, Row>() {
@Override
public Row call(String msg) {
Row row = RowFactory.create(msg);
return row;
}
});
//Create Schema
StructType schema = DataTypes.createStructType(new StructField[] {
DataTypes.createStructField("value", DataTypes.StringType, true)});
//Get Spark 2.0 session
SparkSession spark = JavaSparkSessionSingleton.getInstance(rdd.context().getConf());
Dataset msgDataFrame = spark.createDataFrame(rowRDD, schema);
msgDataFrame.show();
于 2019-08-01T15:55:22.090 回答