我正在使用Spark MongoDB 连接器从 mongodb 获取数据..但是我无法使用聚合管道(rdd.withPipeline)获取如何使用 Spark 在 Mongo 上查询。以下是我想要根据时间戳获取记录的代码& 存储在数据框中:
val appData=MongoSpark.load(spark.sparkContext,readConfig)
val df=appData.withPipeline(Seq(Document.parse("{ $match: { createdAt : { $gt : 2017-01-01 00:00:00 } } }"))).toDF()
这是使用 spark 查询时间戳值的正确方法吗?