在我们的应用程序中,flink 检查点的大小正在增加,并且永远不会使用 Rocks db 作为 statebackend。(AWS KDA)
Kafka-->do some magic -->ES(Sink)-->Writes to kafka
这里我们使用的键是 UUID 并且从不重复。我如何配置以确保检查点大小不会增加或微调 Rocks db 以删除不到 1 天的任何旧密钥。
在我们的应用程序中,flink 检查点的大小正在增加,并且永远不会使用 Rocks db 作为 statebackend。(AWS KDA)
Kafka-->do some magic -->ES(Sink)-->Writes to kafka
这里我们使用的键是 UUID 并且从不重复。我如何配置以确保检查点大小不会增加或微调 Rocks db 以删除不到 1 天的任何旧密钥。