问题标签 [sumologic]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
search - 如何使用 sumologic 自定义 cron 搜索来安排每 10 分钟一次的搜索
我有一个搜索查询,它是使用 sumologic 中的子查询编写的,我想安排此搜索以向 slack 发送警报。我想安排此搜索每 10 分钟一次。但是从 sumo 中,我们可以每 15 分钟运行一次此搜索或更大的窗口。有一个选项叫做Custom Cron
. 是否可以使用自定义 cron 将其安排为 10 分钟窗口?
regex - 哪个选项更适合在相扑逻辑上设置警报?
我在 sumologic 中配置了我的服务器,并且在 sumologic 中完成了日志记录。我想根据日志记录启用一些警报。
我看到两个选项 1) 预定搜索 2) 指标。我的警报应该基于请求的某些执行时间,这些请求正在记录在相扑逻辑上。目前我做了预定的搜索,它的工作原理。有没有更好的方法来完成指标?换句话说,这些指标是否有不同的目的/额外的优势?
sumologic - 相扑逻辑:_sourceCategory 与集群
使用 Sumo Logic,'cluster' 和 '_sourceCategory' 有什么区别?
我试过查看文档,但没有找到集群本身的任何内容。如果你知道,请分享知识。
sumologic - 您如何在 Sumo Logic 中执行相当于 SQL UNION 的操作?
使用 SQL 可以将两个或多个查询组合到一个结果集中,使用UNION
. 你怎么能在 Sumo Logic 中做同样的事情?
aggregate - Sumologic 中的聚合通配符
我正在尝试根据我拥有的不同端点聚合 API 日志。一共有4个端点:
1:/v1/vehicle_locations
2:/v1/vehicle_locations/id
3:/v1/driver_locations
4:/v1/driver_locations/id
我目前这样做的方式是:
_sourceCategory=production | keyvalue auto | where (path matches "/v1/driver_locations" OR path matches "/v1/driver_locations/*" or path matches "/v1/vehicle_locations" or path matches "/v1/vehicle_locations/*") | count by path
问题在于,虽然我得到了 and 的正确聚合,但我得到了/v1/vehicle_locations
and的/v1/driver_locations
单独结果/v1/driver_locations/id
,/v1/vehicle_locations/id
因为 id 是通配符。有没有办法我也可以聚合这些通配符?
sumologic - 是否可以在 Sumologic 中使用文字数据作为流源?
Sumologic 用户是否可以在 Query 中定义数据源值并在子查询条件下使用它?
例如在 SQL 中,可以使用文字数据作为源表。
我想知道相扑逻辑是否也有这种功能。
我相信将这种文字与子查询结合起来会让用户的生活更轻松。
amazon-cloudwatch - 为什么在 aws cloudwatch 上使用 sumologic?
我们的应用程序(Map Reduce Jobs、微服务)完全用完 AWS。
我们打算使用单一服务来查看(出于调试目的)、监控和警报(基于阈值的通知)日志。
使用外部服务提供商(如 sumo 逻辑)而不是 AWS 本身提供的服务提供商(在这种情况下为 cloudwatch)是否有任何特定的好处
heroku - 如何从我的应用程序下载 300k 日志行?
我正在我的 Heroku 应用程序上运行一项作业,该作业在 5 分钟内生成大约 300k 行日志。我需要将它们全部提取到一个文件中。我怎样才能做到这一点?
Heroku UI 从打开的那一刻起只实时显示日志,并且只保留 10k 行。
我附加了一个 LogDNA 插件作为排水管,但它们的导出也只允许导出 10k 行。甚至可以选择导出,我需要应用搜索过滤器(我输入2020
是因为所有行都以日期开头,但仍然......)。我可以滚动浏览所有日志以查看它们,但是当我向上滚动时,底部会被截断,所以我什至不能自己复制粘贴它们。
然后我将 Sumo Logic 附加为排水管,这样更好,因为导出限制为 100k。但是我仍然需要以 30s 到 60s 的间隔过滤日志并单独下载。它还以相反的顺序导出到 CSV 文件(最新的优先,不是我想要的),所以我必须在下载文件后仍然对其进行处理。
是否没有选项可以完整获取实际的原始日志文件?
amazon-s3 - 如何在 Sumologic 中重新处理原始日志
我在 sumologic 帐户中添加了一个 AWS S3 收集器,然后开始收集日志。在我的情况下,这些是 Application Load Balancer 访问日志。我还让收集器默认边界检测为“推断边界”。
我注意到一些https类型的传入请求日志条目与h2类型的请求日志条目合并。
然后我决定通过正则表达式更改边界检测。
sumologic 收集的旧日志条目似乎不会被这个新配置自动重新处理。
如何对我的收集器收集的日志进行全局重新处理,以便正确解析它们?
infrastructure-as-code - SumoLogic 仪表板 - 我如何实现自动化?
我在 SumoLogic 仪表板和警报方面获得了一些经验。我想在代码中进行所有可能的配置。有人有 SumoLogic 配置自动化的经验吗?目前我正在使用 Ansible 进行通用服务器和基础设施配置。
感谢您提供所有信息!
最好的问候,拉法尔。