有人可以帮我解决这个问题吗?
根据我们的用例,我已将日志驱动程序更改为“fluentd”,/etc/docker/daemon.json
因此部署在 kubernetes 节点上的所有 pod 都将直接将日志事件转发到 fluentd 实例。
我们没有任何 ElasticSearch,而是希望以这种特殊的方式将接收到的日志事件写入文件系统。
/data/<namespace>/<service name>/<last 5 characters of POD name>/application.log
和 application.log,应具有原样的日志事件。(应用程序和日志事件生成的时间戳)
我正在尝试在下面的配置中进行调整
[SERVICE]
Flush 5
Daemon Off
Log_Level debug
[INPUT]
Name forward
Listen 0.0.0.0
Port 24224
[FILTER]
Match **
Name kubernetes
Merge_Log On
K8S-Logging.Parser On
Merge_Log On
Merge_Log_Key log_processed
Annotations On
Labels On
[OUTPUT]
Name file
Path ??