我在 kafka 主题中获得 300K+ 指标/分钟作为时间序列。我想存储和查询数据。满足我要求的可视化工具是 Grafana。为了有效地存储和查询,我正在考虑将这些时间序列存储在 Prometheus 中。
具有大量时间序列的 Kafka 主题 -> Prometheus -> Grafana
我不太确定,我怎么能做到这一点,因为 Prometheus 是基于 Pull 的抓取方法。即使我编写了一个拉取服务,它是否允许我拉取 300K/分钟的指标?
SYS 1, UNIX TIMESTAMP, CPU%, 10
SYS 1, Processor, UNIX TIMESTAMP, CPUCACHE, 10
SYS 2, UNIX TIMESTAMP, CPU%, 30
.....
大部分文章都在讨论 Kafka exporter/JMX exporter 来监控 Kafka。我不是在寻找 kafka 监控,而是发送存储在主题中的时间序列数据,并利用 Prometheus 查询语言和 Grafana 进行分析。