在这篇(https://dzone.com/articles/what-are-spark-checkpoints-on-dataframes)文章中,它说检查点用于“在我做其他事情之前冻结数据帧的内容”。
然而,在这篇(http://blog.madhukaraphatak.com/introduction-to-spark-structured-streaming-part-7/)文章中,它说检查点用于从故障中恢复。从这里我收集到,如果 spark 正在处理一个 kafka 主题并且 spark 崩溃,在它重新启动后,它将从它上次检查点的偏移量开始处理。这个说法正确吗?
spark中有两种不同的检查点概念吗?因为我无法调和2。