问题标签 [statsd]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - statsdclient(java) 和 statsd 之间的不一致
我使用了一个 java 客户端(在 statsd 示例中可用)来触发我的测试应用统计信息。首先我遇到了这个错误:
然后我编写了一个小型 Java 程序来确认我的应用程序是否能够正确连接到 StatsD 服务器。是的,数据包也正确送达。
然后我debug=true
转向statsd。这是控制台输出:
这是我写的代码:
请帮忙...
java - 是否存在线程安全的 statsd 客户端?
我需要statsd
在 Web 应用程序中使用线程安全客户端来监视用户线程的统计信息。请提出一个既线程安全又不影响性能的解决方案。
python - 写入 UDP 套接字会阻塞吗?
如果是这样,在什么条件下?或者,换一种说法,在 twisted 中运行此代码是否安全:
python - 石墨 statsd xaxis 每 2 秒
我已经安装了石墨、nodejs-statsd(用于接收数据)和 python statsd 客户端(用于发送数据)。
下面是一个测试脚本,它将数据发送到 statsd 进程的 udp 套接字。
因为它每 2 秒发送一次数据,但是石墨/statsd 每 60 秒渲染一次图形,x 轴也在 60 秒内,知道如何将 x 轴点设置为 2 秒
performance - 运行 StatsD 时 node.js 100% cpu 利用率
我想通过我所做的一些压力测试来测试 StatsD 的性能。最终我发现当每秒有 80,000 个数据包时,Node.js 在我的环境中达到 100% 的 CPU 利用率。
我知道每秒 80,000 个事件是相当大量的事件,但我想知道是否有人知道 StatsD 对 Node.js 的限制是什么。什么是正常事件率?
另外,我可以做些什么来提高 Node.js 的性能,使其不会达到 100% 的 cpu 利用率?
metrics - 按服务器过滤 Graphite 指标
我最近使用 statsD 仪器对石墨进行了大量研究。在我们的开发运营团队的帮助下,我们设法让多台服务器向石墨报告指标,并结合所有指标。这部分是我们正在寻找的,但是我想按服务器过滤指标集合,而不是将所有指标平均在一起。这样做的目的是监控每台服务器的指标收集,因为我们的许多统计数据也可用于可视化服务器正常运行时间和性能。在我的研究中,除了聚合规则可能存在一些诡计之外,我还没有找到任何关于如何实现这一点的信息。
graph - stats_counts 指标的 StatsD 和 Graphite 问题
我对whisser 保存的stats_counts指标有疑问。
在我的应用程序中,我同时触发了两种指标:计数器增量 + 时间。当我比较特定的指标图时:stats_counts + 计时器的“计数”我在大约 4 小时内得到相同的结果,但在查看更大的时间段时 - 比如 12 小时,我可以看到很大的差异。
我找到了这篇文章:Tracking metrics using StatsD (via etsy) and Graphite,graphite graph doesn't seem to be graphing all the data 但它对我没有帮助。
在我看来这是一个配置问题,但我不明白是什么问题。
这是我的配置文件的外观:
存储架构.conf:
存储聚合.conf:
如您所见,我有用于聚合的“stats_counts”规则,但似乎效果不佳,知道我错过了什么吗?也许我在那里写的正则表达式的语法不好:^stats_counts。
wildcard - Graphite 中的指标过滤器 - 忽略层次结构(点)
有什么方法可以在忽略层次结构的同时过滤 Graphite 中的指标?
例如:假设我有以下指标:
如何仅在 stats_count下对 TestMetric 求和?
我尝试了以下操作但没有成功:
有任何想法吗?有可能吗?
metrics - Graphite - 多档案级检索问题
我使用以下保留设置配置了我的文件:
这确实有效,但是我的问题是网络应用程序决定从较低的存档而不是较高的存档中获取数据。例如:由于我的分辨率为每 1 周 10 秒,我希望如果我查看的时间少于 1 周(在我的情况下,我只是查看数据 1 天),那么将从第一级检索数据(精确到 10 秒),但是网络应用程序从下一级提取数据,因此我得到的是平均数据。
我在文档中找到了这个:
“检索数据时(按时间范围),使用第一个可以满足整个时间段的存档。如果时间段与存档边界重叠,将使用较低分辨率的存档。这允许更简单的行为同时检索数据,因为数据的分辨率在整个返回的系列中是一致的。”
我怎样才能让石墨从最高分辨率的档案中获取数据?我的意图是在 1 周(10 秒)内获得高分辨率,而下一个级别是 30 天,以获得 1 分钟的分辨率。
有没有办法实现这一点,或者重新配置我的存储模式?
graphite - 已删除/空的 Graphite Whisper 文件自动重新生成
我正在尝试删除一些旧的石墨测试耳语指标,但没有任何成功。我可以通过删除文件来删除指标。(请参阅:如何清理石墨耳语的数据?)但是,在吹走它们重新生成的文件的几秒钟内(它们没有指标并保持这种状态,因为没有在这些文件中创建新指标)。我尝试在删除文件之前停止 carbon (carbon-cache.py stop),但是当我重新启动 carbon (carbon-cache.py --debug start &) 时,它们又回来了。
如何永久删除这些文件/metics,使它们永远不会回来?