我希望能够从许多日志文件中提取数据。然后将提取的数据发送到 zabbix。
举个例子,假设一个(巨大的)日志文件包含如下信息
date: processed 566766 lines
date: processed 324523 lines
date: processed 546747 lines
date: processed 005643 lines
我希望能够将这些数据发送到 Zabbix。
使用 awk 我只会做类似的事情
cat logfile | awk '/processed \d+ lines/ { system("zabbix command " $3) }'
我的问题是因为文件很大,并且因为我不想要重复的数据,所以我需要找到一种方法来开始读取日志文件,从上次运行时中断的地方开始
所以它需要记住它直到上次读取的点,并开始只处理新添加的行。
我尝试了 fetchlog,但由于某种原因它不起作用并且没有得到维护。
你知道一个可以跟踪不断增长的日志文件的好实用程序,还是一种 Pythonic 方法?
我似乎记得 syslog-ng 或 rsyslog 对此有所帮助,但我认为它们仅适用于 syslog 样式的日志,而我的没有遵循任何标准。
问候
亚历山德罗