Spark RDD.persist(..) 可以帮助避免重复的 RDD 评估。
Flink 中是否有相同的功能?
其实我想知道如果我像下面这样编码,Flink 会评估dataStream
一次或两次?
val dataStream = env.addSource(...).filter(...).flatMap(...)
val s1 = dataStream.keyBy(key1).timeWindow(...).aggregate(..)
val s2 = dataStream.keyBy(key2).timeWindow(...).reduce(...)