1

我们已将 Azure Data Lake Store 诊断日志配置为将数据推送到 Log Analytics。此数据稍后将用于审计目的。

我们遇到的问题 - 我们的每晚备份过程(将数据从一个 Data Lake Store 备份到另一个 Data Lake Store)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics 后(在查询中)过滤掉它们,但是这些数据占用空间并且成本很高。

有没有办法在将某些日志上传到 Log Analytics 之前过滤掉它们,所以这些数据永远不会到达 Log Analytics?(在我们的例子中,这是由 BACKUP 用户生成的日志)。可以使用哪些其他选项来摆脱数据备份日志?

4

1 回答 1

2

在将日志路由到 Log Analytics 之前,无法以这种方式筛选日志。

将来,您也许可以取消备份过程,转而使用异地冗余 Azure Data Lake Store

于 2018-05-25T18:32:21.037 回答