我在监控团队工作,我们会监控我们工具上的客户端负载。我们记录了与时间序列相关的延迟。
最初,我保留了一个静态阈值来提高异常检测。但是,如果发生季节性,它就不起作用。现在,我计划在我的数据上应用 ML。
我的数据看起来像:
volume_nfs_ops timestamp mount_point
---------------------------------------------------------
2103 6/28/2018 3:16 /slowfs/us01dwt2p311
12440 6/28/2018 6:03 /slowfs/us01dwt2p311
14501 6/28/2018 14:20 /slowfs/us01dwt2p311
12482 6/28/2018 14:45 /slowfs/us01dwt2p311
10420 6/28/2018 18:09 /slowfs/us01dwt2p311
7203 6/28/2018 18:34 /slowfs/us01dwt2p311
14104 6/28/2018 21:58 /slowfs/us01dwt2p311
6996 6/29/2018 7:35 /slowfs/us01dwt2p311
11282 6/29/2018 8:39 /slowfs/us01dwt2p311
当我做谷歌时,我想到了 ARIMA 是时间序列的最佳模型。我对数学很感兴趣,可以弄清楚各自的 ARIMA 是否对我的数据集有好处。
我的问题是哪种算法最适合在 Python 中实现?我应该考虑哪些因素来发现异常?