我有一个 Java 应用程序,我在其中使用 Log4j2 在 JSONLayout 中打印日志,这是日志格式的示例:
{
"thread": "TopicStatusThreadPool-thread-1",
"level": "INFO",
"loggerName": "My Kafka Logger",
"message": "Topic Status List is empty, returning from summarize method",
"endOfBatch": false,
"loggerFqcn": "org.apache.logging.slf4j.Log4jLogger",
"instant": {
"epochSecond": 1587980988,
"nanoOfSecond": 214241000
},
"threadId": 37,
"threadPriority": 5
}
然后,以这种格式打印的日志由 Fluent Bit 提取并推送到 Elasticsearch。我正在使用 Kibana 来可视化日志,但是当我看到日志和时间为epochSecond和nonOfSecond时,由于格式的原因,很难将其与实际的应用程序日志联系起来。
是否有任何Fluent Bit Filter可用于将此时间格式修改为更易于阅读的格式。
目前我在 Fluent Bit 配置中使用基本的 JSON 解析器和 Kubernetes 过滤器来将 Kubernetes 信息添加到日志消息中。
更新:
我对 Log4j2 配置进行了更改,现在我得到了 timeMillis 字段,它在日志中以毫秒为单位打印时间。
{
"thread": "TopicStatusThreadPool-thread-1",
"level": "INFO",
"loggerName": "My Kafka Logger",
"message": "Topic Status List is empty, returning from summarize method",
"endOfBatch": false,
"loggerFqcn": "org.apache.logging.slf4j.Log4jLogger",
"timeMillis": 1587980988213,
"threadId": 37,
"threadPriority": 5
}
将其转换为人类可读格式的 lua 过滤器将是什么。默认情况下,Fluent Bit 中的时间转换不支持以毫秒为单位的时间,它需要以秒为单位的时间。
我试过这个:
[PARSER]
Name json
Format json
Time_Key timeMillis
Time_Format %s
Time_Keep On
但这并没有选择毫秒部分,而是以秒为单位处理时间。