0

我想测量处理一些数据需要多长时间:我的应用程序以固定速率从给定源读取数据。在我存储的每个圆圈之前Instant.now()。我读取数据,将单个时间戳添加到每个条目。数据被存储、转换,就在我通过 WebSockets 发送出去之前,我想测量now()与初始时间戳之间的持续时间。

我试过了

long millis = Duration.between(dataEntry.getReceivedTimestamp(), Instant.now()).toMillis();
LOG.info(millis + "ms");
registry.timer("processingDuration").record(millis, TimeUnit.MILLISECONDS);

但可视化这让我只使用processingDuration_seconds_count,_max_sum. count并且sum随着时间的推移而增加(当然),max大部分时间都是恒定的。那么我如何看到更高和更低的负载平台呢?我试图irate(processingDuration_seconds_sum[10m])至少看到跳跃,但由于irate()仅使用两个数据点,我仍然无法轻松识别较长时间的高负载。另外:图中的值约为 0.6,而记录的 ms 约为 5-10,所以我在这里失去了实际值。

所以我尝试使用 aGauge代替——它应该允许增加和减少值:

registry.gauge("processingDurationGauge", millis);

我以为这会在记录的毫秒范围内上下波动,但它一直是 92。

如何测量数据的整个时间?

4

2 回答 2

1

使用计时器record是正确的解决方案。

long millis = Duration.between(dataEntry.getReceivedTimestamp(), Instant.now()).toMillis();
LOG.info(millis + "ms");
registry.timer("processingDuration").record(millis, TimeUnit.MILLISECONDS);

假设您每 30 秒刮一次,您可以使用_sumand_count来获得平均记录持续时间:

increase(processingDuration_seconds_sum[1m])/increase(processingDuration_seconds_count[1m])

如果您想比较当前持续时间与过去一天的平均值相比的表现:

((increase(processingDuration_seconds_sum[1m])/
increase(processingDuration_seconds_count[1m]))*1.50) >
increase(processingDuration_seconds_sum[24h])/
increase(processingDuration_seconds_count[24h])

这只会返回 1m 平均值超过每日平均值 1.5 倍的值。(我没有测试过那个查询,但它应该明白了)。

于 2020-01-21T05:26:01.897 回答
0

问题是,long不是线程安全的,请参阅此答案。按照预期方式进行操作:

private final AtomicLong processingDuration;

// ...

// in constructor:
processingDuration = meterRegistry.gauge("processingDuration", new AtomicLong(0L));

// ...

// before finishing the data entries' handling:
long millis = Duration.between(dataEntry.getReceivedTimestamp(), Instant.now()).toMillis();
LOG.info(millis + "ms");
processingDuration.set(millis);
于 2020-01-20T12:26:39.170 回答