0

是否有可能将从 Performance Center 获取的分析报告推送到 Logstash 并在 Kibana 中可视化它们?我只是想自动化检查每个 vuser 日志文件的任务,然后将错误推送到 ELK 堆栈。如何通过脚本检索文件并自动执行此操作。我对此没有任何指导,因为我需要自动执行从每个 vuser_log 文件中自动读取的任务。

4

1 回答 1

1

Filebeat应该是您完成您提到的工作的工具。

要自动读取您在文件(可能是日志文件)中写入的条目,您只需要一个可以是 Filebeat 的托运工具(它与 ELK 堆栈很好地集成。Logstash 也可以做同样的事情,但它很重并且需要 JVM)

要在 ELK 堆栈中执行此操作,您需要以下内容:

  1. Filebeat应该设置在您的主应用程序正在运行并生成日志的“所有”实例上。Filebeat 是一个简单的轻量级托运工具,可以读取您的日志条目,然后将它们发送到 Logstash。
  2. 设置一个Logstash实例(即 ELK 的 L),它将接收来自 Filebeat 的事件。Logstash 会将数据发送到 Elastic Search
  3. 设置一个Elastic Search实例(即 ELK 的 E),用于存储您的数据
  4. 设置一个Kibana实例(即 ELK 的 K)。Kibana 是通过 Rest 调用查看 Elastic 搜索并与之交互的前端工具

请参阅以下链接以进行上述设置:

https://logz.io/blog/elastic-stack-windows/

于 2018-06-13T08:00:43.537 回答