0

有人可以帮我解决这个问题吗?

根据我们的用例,我已将日志驱动程序更改为“fluentd”,/etc/docker/daemon.json 因此部署在 kubernetes 节点上的所有 pod 都将直接将日志事件转发到 fluentd 实例。

我们没有任何 ElasticSearch,而是希望以这种特殊的方式将接收到的日志事件写入文件系统。

/data/<namespace>/<service name>/<last 5 characters of POD name>/application.log

和 application.log,应具有原样的日志事件。(应用程序和日志事件生成的时间戳)

我正在尝试在下面的配置中进行调整

[SERVICE]
    Flush        5
    Daemon       Off
    Log_Level    debug

[INPUT]
    Name   forward
    Listen 0.0.0.0
    Port   24224

[FILTER]
  Match               **
  Name                kubernetes
  Merge_Log           On
  K8S-Logging.Parser  On
  Merge_Log        On
  Merge_Log_Key    log_processed
  Annotations      On
  Labels           On

[OUTPUT]
    Name  file
    Path ??
4

0 回答 0