1

我正在试用 druid 中的石墨发射器插件,以在 druid 性能测试期间收集石墨中的某些 druid 指标。目的是使用石墨提供的 REST API 查询这些指标,以表征部署的性能。

但是,石墨返回的数字没有意义。所以,我想检查我是否以正确的方式解释结果。

设置

  • kafka 索引服务用于将 kafka 中的数据摄取到 druid 中。
  • 我启用了石墨发射器并提供了要收集的指标白名单。
  • 然后我将 5000 个事件推送到被索引的 kafka 主题。使用 kafka 相关工具,我确认消息确实存储在 kafka 日志中。
  • 接下来,我ingest.rows.output metric使用以下调用从石墨中检索:

curl " http://Graphite_IP:Graphite_Port >/render/?target=druid.test.ingest.rows.output&format=csv"

  • 以下是我得到的结果:
druid.test.ingest.rows.output,2017-02-22 01:11:00,0.0 
druid.test.ingest.rows.output,2017-02-22 01:12:00,152.4 
druid.test.ingest.rows.output,2017-02-22 01:13:00,97.0 
druid.test.ingest.rows.output,2017-02-22 01:14:00,0.0

我不知道如何解释这些数字:

问题

  1. 输出中的数字 152.4 和 97.0 表示什么?
  2. “行数”怎么可能是像 152.4 这样的浮点值?
  3. 这些数字与我推送到 Kafka 的“5000”条消息有什么关系?

提前致谢,

吉廷

4

2 回答 2

0

经过一些实验,我发现了这个问题。由于我的 kafka 主题有多个分区,因此 druid 运行多个任务来索引 kafka 数据(每个分区一个任务)。这些任务中的每一个都定期报告各种指标。对于每个指标,每个时间间隔从石墨获得的数字是该时间间隔内所有任务报告的指标值的平均值。在我上面的例子中,如果聚合函数是求和(而不是平均值),那么从石墨获得的值将是 5000。

但是,我无法弄清楚平均是由graphite-emitter德鲁伊插件还是由石墨完成的。

于 2017-02-23T23:13:16.343 回答
0

根据 druid 指标页面,它指示汇总后的事件数。观察到的浮点值是由于计算石墨服务器用于汇总数据的时间窗口内的平均值。因此,如果这些指标是完整的,则意味着您最初的 5000 行被压缩到大约 250 行。

于 2017-02-22T18:58:12.807 回答