简短的问题是:是否可以从远程服务器中提取日志(在日志文件中)并将它们摄取到 ELK 堆栈中。
长篇大论如下:
- 我们有一个
DMZ
面向公众的设置 - 我们有一个
intranet
托管许多内部系统的环境,包括 ELK 堆栈 - 由于安全规定,我们无法建立
DMZ
从intranet
. - 然而,我们可以建立
intranet
从DMZ
由于此设置,我们无法按照正常路线Filebeat
在存储日志的服务器上安装 a 并将消息推送到我们的logstash
安装中。
我们想要做的是看起来有点像下面这样的事情:
- Filebeat 或任何其他进程在服务器内部收集日志
DMZ
- 在此服务器上,有一些进程(
Filebeat
,logstash
,另一个elasticsearch
实例?)将这些信息保存在本地存储中 - 这个工具(不管它最终是什么)监听一个端口,该端口可从
intranet
- 内部的另一个工具
intranet
连接到该DMZ
工具并提取所有收集的日志以进行进一步处理。
到目前为止,我们的调查只产生了将日志信息推送到logstash
或的解决方案elasticsearch
。
我们不想做的一件事是使用文件共享使日志文件直接从intranet
.
我们的问题是,我们的想法是否可行,如果可行,我们将使用什么工具和设置来实现这一目标。