我们已将 Azure Data Lake Store 诊断日志配置为将数据推送到 Log Analytics。此数据稍后将用于审计目的。
我们遇到的问题 - 我们的每晚备份过程(将数据从一个 Data Lake Store 备份到另一个 Data Lake Store)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics 后(在查询中)过滤掉它们,但是这些数据占用空间并且成本很高。
有没有办法在将某些日志上传到 Log Analytics 之前过滤掉它们,所以这些数据永远不会到达 Log Analytics?(在我们的例子中,这是由 BACKUP 用户生成的日志)。可以使用哪些其他选项来摆脱数据备份日志?