问题标签 [azure-log-analytics]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
azure-log-analytics - 基于日期查询的 Azure 日志分析
我想在 log analytics 中查询一个表,以获取今天日期最后一小时的记录计数,并比较在同一天的前一周(7 天前)同一小时获取的计数。
我不确定以下查询是否对我有帮助。请帮助我。
表1 | 其中 TimeGenerated > now(-1h) 和 responseCode_d == 200 | 通过 responseCode 总结 recount=count(responseCode) | 项目响应代码,重新计算 | 加入 kind=inner ( Table1 | where TimeGenerated > now(-7d) and responseCode_d == 200 | 通过 responseCode 总结 recount1=count(responseCode) | project responseCode_d,recount1 ) on responseCode
azure-application-insights - 在 Application Insights Log Analytics 中加入 PageViews 和请求
我想将来自 AppInsights 浏览器 SDK 的 pageViews 加入到后端的请求中。我没有看到有意义的外键,是否有一个 OOTB?还是我需要编写一些代码才能将它们连接在一起?
要添加上下文,我对 cloudRoleInstance(服务器)的 pageView 持续时间感兴趣,但 cloudRoleInstance 仅在请求时可用。
我尝试了以下,但没有奏效,我想操作ID不一样。
monitoring - 监控 Azure Data Lake Store
我将数据存储在每个文件夹内的 Data Lake Store 中的 XML 文件中,就像一个文件夹构成一个源系统一样。
每天结束时,我想运行一些日志分析,以了解每个文件夹下的 Data Lake Store 中存储了多少新 XML 文件?我启用了诊断日志并添加了 OMS 日志分析套件。
我想知道实现上述报告的最佳方法是什么?
azure-application-insights - Azure 日志分析批处理
我无法弄清楚为什么 Azure 日志分析查询中的批处理无法按文档中的预期工作。例如,此查询应返回两个表格结果。
我尝试做同样的事情,并且总是只为我的第一个子查询获得结果,例如,在这种情况下,只返回一个表和一个条目,而第二个子查询没有执行(我可以在其中留下错误,它们不是执行时被捕)。
c# - Azure 日志分析 .NET SDK 中的跨工作区查询
我正在使用 azure log analytics .NET SDK 来执行一些日志分析查询。
我用于此 SDK 的块金包是Microsoft.Azure.OperationalInsights。
这使我可以发出一些简单的查询,例如以下代码示例:
身份验证和简单查询:
现在我想编写一个运行跨工作区查询的方法,我动态地获取工作区 ID,并且我想构建引用所有这些工作区的查询。
我没有在文档中找到任何示例来构建此类查询。
我找到了 OperationalInsightDataClient 类的属性 AdditionalWorkspaces 但不清楚如何使用它来实现目标。
任何帮助将不胜感激。
azure-application-insights - 仅返回第一个结果的 App Insights“加入”
我有一份工作每小时运行一次(时间略有不同)并将指标记录到 Application Insights 中。
我想根据最新作业运行的指标触发警报。
看着metrics
我可以看到这个查询应该返回 8 个结果。但它只返回其中的第一个。为什么?
azure - Azure Log Analytics 和 Data Lake Store 诊断日志 - 过滤掉数据备份日志事件
我们已将 Azure Data Lake Store 诊断日志配置为将数据推送到 Log Analytics。此数据稍后将用于审计目的。
我们遇到的问题 - 我们的每晚备份过程(将数据从一个 Data Lake Store 备份到另一个 Data Lake Store)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics 后(在查询中)过滤掉它们,但是这些数据占用空间并且成本很高。
有没有办法在将某些日志上传到 Log Analytics 之前过滤掉它们,所以这些数据永远不会到达 Log Analytics?(在我们的例子中,这是由 BACKUP 用户生成的日志)。可以使用哪些其他选项来摆脱数据备份日志?
azure - Microsoft 监控代理 (MMA) 和 OMS 代理之间的区别
Azure 虚拟机使用两种类型的监视代理:Microsoft Monitoring Agent (MMA)和Operation Management Suite (OMS)。这些可用于连接到 Azure Log Analytics 工作区并且可以互换声音。MMA代理和OMS代理的主要区别是什么?
azure - 识别 Azure Log Analytics 可用 SKU 的编程方法
我正在尝试创建一个 ARM 模板以通过 ARM 部署 Azure Log Analytics 工作区。该模板工作正常,除了它需要了解哪些 SKU 对目标订阅有效 - PerGB2018 用于新订阅或旧 SKU 之一用于未迁移订阅。
此处列出了可用于创建工作区的 SKU: https ://docs.microsoft.com/en-us/rest/api/loganalytics/workspaces/createorupdate
我不知道如何在部署之前确定哪些对特定订阅有效,最终会出现错误和部署失败,而我选择的默认设置无效。我不能假设调用模板的人或系统会理解并访问正确的定价 SKU 集。PerGB2018 不能用于非迁移订阅,因此不能作为我的默认值。
任何人都可以分享一种在尝试部署之前确定哪些 SKU 可以工作从而避免错误的方法吗?我已经检查了 Monitor 和 Billing API,以防它在那里列出但看不到任何东西,并且来自门户页面的网络调用没有提供太多洞察力:(
我的偏好是避免使用 PowerShell,因为其余部署使用 BASH 来请求部署信息并构建参数文件。
谢谢你