15

我在 JAX-RS 应用程序中将 SLF4J 与 Logback 一起使用...我想以这样的方式登录到 JSON,即我的消息不会再次编码,而是将原始打印到日志文件中:

目前它看起来像这样:

{"@timestamp":1363834123012,"@message":"{\"text\":\"From MLK to Barack 
Ob...\n\"}"

但我想要这个:

  {"@timestamp":1363834123012,"@message": { "text ": "From MLK to Barack 
Ob...\n\}

原因是我想再次解析 JSON 并希望避免数据的转义。

我写了一个自定义的 logback 编码器,但我没有办法避免转义。我可以将对象传递给 logback 并根据对象的类型更改设置吗?

编辑:我找到了一种方法 - 不完全优雅 - 按照 SSCE 的要求:

在我的应用程序中

// SLF4J Logger
private static Logger logger = LoggerFactory.getLogger(MyClass.class);
// A logback? Marker
private Marker foo = MarkerFactory.getMarker("foo");
// Jackson ObjectMapper()
ObjectMapper mapper = new ObjectMapper();

// Log something... 
logger.info(foo, mapper.writeValueAsString(json));

我使用了这里找到的 Logstash-Encoder 的变体:https ://github.com/logstash/logstash-logback-encoder

package my.package;

import static org.apache.commons.io.IOUtils.*;

import java.io.IOException;
import java.util.Map;
import java.util.Map.Entry;

import org.codehaus.jackson.JsonGenerator.Feature;
import org.codehaus.jackson.JsonNode;
import org.codehaus.jackson.map.ObjectMapper;
import org.codehaus.jackson.node.ObjectNode;
import org.slf4j.Marker;

import ch.qos.logback.classic.spi.ILoggingEvent;
import ch.qos.logback.classic.spi.IThrowableProxy;
import ch.qos.logback.classic.spi.ThrowableProxyUtil;
import ch.qos.logback.core.CoreConstants;
import ch.qos.logback.core.encoder.EncoderBase;

public class JsonEncoder extends EncoderBase<ILoggingEvent> {

    private static final ObjectMapper MAPPER = new ObjectMapper().configure(
        Feature.ESCAPE_NON_ASCII, true);
    private static Marker M;

    private boolean immediateFlush = true;

@Override
public void doEncode(ILoggingEvent event) throws IOException {

    M = event.getMarker();

    ObjectNode eventNode = MAPPER.createObjectNode();

    eventNode.put("@timestamp", event.getTimeStamp());
    //
    if (M != null) {
        if (M.getName().equals("foo")) {
            JsonNode j = MAPPER.readTree(event.getFormattedMessage());
            eventNode.put("@foo", j);
        }
    } else {
        eventNode.put("@message", event.getFormattedMessage());
    }
    eventNode.put("@fields", createFields(event));

    write(MAPPER.writeValueAsBytes(eventNode), outputStream);
    write(CoreConstants.LINE_SEPARATOR, outputStream);

    if (immediateFlush) {
        outputStream.flush();
    }

}

private ObjectNode createFields(ILoggingEvent event) {
         // not important here
    return fieldsNode;

}

@Override
public void close() throws IOException {
    write(LINE_SEPARATOR, outputStream);
}

public boolean isImmediateFlush() {
    return immediateFlush;
}

public void setImmediateFlush(boolean immediateFlush) {
    this.immediateFlush = immediateFlush;
}
}

现在可以了!是的!但我想这不是最好的方法(序列化,反序列化 JSON ......)

4

7 回答 7

7

如果您有 Json 格式的消息,则上面的解决方案可以工作,但不是很好,因为您不想在每次在代码中使用记录器时调用特定于 logstash 的代码。

只需添加一个

net.logstash.logback.encoder.LogstashEncoder

还不够,因为消息本身仍然是 escaped。要解决此问题,请在 logback.xml 中尝试以下操作:

<encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
     <providers>
        <timestamp/>
        <version/>
        <loggerName/>
        <pattern>
            <pattern>
                {
                "jsonMessage": "#asJson{%message}"
                }
            </pattern>
        </pattern>
    </providers>
</encoder>

#asJson 模式将取消转义您的消息。

于 2017-07-14T06:18:57.603 回答
4

使用 RawJsonAppendingMarker:

log.trace(net.logstash.logback.marker.Markers.appendRaw("jsonMessage", jsonString), null);
于 2016-01-05T12:30:14.517 回答
3

我遇到了同样的问题。我解决了

<encoder
 class="net.logstash.logback.encoder.LogstashEncoder">          
</encoder

代替

<encoder
 class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">

在我的java代码中,我使用了:

SRV_PERF_LOGGER.info(net.logstash.logback.marker.Markers.appendRaw("message", jackson.writeValueAsString(dto)), null);
于 2016-01-29T14:21:41.400 回答
2

这是一个更新的 (2016) groovy logback 配置,它将 json 格式的日志转储到文件中,并在控制台中调试行。花了我一整天才弄清楚,所以我想我会更新线程。

    import ch.qos.logback.classic.encoder.PatternLayoutEncoder
import ch.qos.logback.core.ConsoleAppender
import ch.qos.logback.core.rolling.FixedWindowRollingPolicy
import ch.qos.logback.core.rolling.RollingFileAppender
import ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy
import net.logstash.logback.encoder.LogstashEncoder

import static ch.qos.logback.classic.Level.INFO
import static ch.qos.logback.classic.Level.WARN

def PROJECT_ID = "com.foo"

    appender("file", RollingFileAppender) {
        file = "/tmp/logs/${PROJECT_ID}.json"
        encoder(LogstashEncoder)
        rollingPolicy(FixedWindowRollingPolicy) {
            maxIndex = 1
            fileNamePattern = "logs/${PROJECT_ID}.json.%i"
        }
        triggeringPolicy(SizeBasedTriggeringPolicy) {
            maxFileSize = "1MB"
        }
    }


    appender("STDOUT", ConsoleAppender) {
        encoder(PatternLayoutEncoder) {
            pattern = "%d{HH:mm:ss.SSS} %-5level %logger{36} - %msg%n"
        }
    }

    logger("com.foo", INFO, ["STDOUT", "file"], false)

    root(WARN, ["STDOUT", "file"])
于 2016-02-18T21:42:58.450 回答
1

Logback 不会对 JSON 做任何不寻常的事情。它只是一个正常记录的字符串。转义可能发生在您的最后,除非您正在谈论某种以该格式写出的 JSON Appender。我很确定 Logback 本身没有类似的东西,所以如果这是你的问题,你会想看看你从哪里得到 Appender。SSCCE有助于进一步排除故障。

于 2013-03-21T03:12:37.397 回答
1

我自己刚刚过来,发现了一篇关于日志记录的文章。

如果您使用 maven 将此依赖项放入pom.xml

<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>3.4</version>
</dependency>

并把这样的东西放入logback.xml

<configuration>
    <property name="PROJECT_ID" value="example"/>
    <appender name="file" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <File>logs/${PROJECT_ID}.json</File>
        <encoder class="net.logstash.logback.encoder.LogstashEncoder"/>
        <rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
            <maxIndex>1</maxIndex>
            <FileNamePattern>logs/${PROJECT_ID}.json.%i</FileNamePattern>
        </rollingPolicy>
        <triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
            <MaxFileSize>1MB</MaxFileSize>
        </triggeringPolicy>
    </appender>
    <logger name="eu.kielczewski" additivity="false" level="INFO">
        <appender-ref ref="file"/>
    </logger>
    <root level="WARN">
        <appender-ref ref="file"/>
    </root>
</configuration>

这会example.jsonlogs/. 文件大小达到 1MB 时滚动一次。

LOGGER.debug(append("object", someObject), "log message");
于 2016-02-08T14:38:50.890 回答
0

我看不到导致您的问题的原始代码,但我怀疑它可能看起来像这样

JsonNode logOutput;
String messageJSONAsString;

...

logOutput.put("@message", messageJSONAsString);
logger.info(objectMapper.writeValueAsString(logOutput);

这将在您的输出中生成转义的 JSON,因为当您将消息放入输出 JsonNode 时,Jackson 将为您重新转义它以确保输出是有效的 JSON。

这里的解决方案是将消息作为 ObjectNode 而不是字符串放在输出中。通常您已经可以将对象作为对象访问,在这种情况下您可以这样做

ObjectNode jsonObject = objectMapper.valueToTree(messageObject);
logOutput.put("@message", jsonObject)

否则,如果您的消息是 JSON 字符串,则对其进行解析并将其添加到输出中

logoutput.put("@message", objectMapper.readTree(messageJSONAsString));
于 2015-02-17T22:20:05.533 回答