我相信你们都做得很好。
我们计划为以下文件实施日志轮换。
stdout.log
我们使用下面的日志轮换配置文件。
/usr/local/rms/kafka/kafka-connect-fluentd/stdout.log {
daily
rotate 7
maxsize 100M
minsize 10M
copytruncate
delaycompress
compress
notifempty
missingok
}
我们注意到文件正在旋转并且文件被截断。但是应用程序不会将日志写入新文件。我们尝试发送 HUP 信号,但没有成功。
-rw-r--r-- 1 appuser appuser 8.2M Feb 20 03:11 stdout.log.4.gz
-rw-r--r-- 1 appuser appuser 4.0M Feb 20 23:48 stdout.log.3.gz
-rw-r--r-- 1 appuser appuser 7.6M Feb 20 23:49 stdout.log.2.gz
-rw-r--r-- 1 appuser appuser 2.1G Feb 21 03:39 stdout.log.1
-rw-r--r-- 1 appuser appuser 2.2G Feb 21 14:15 stdout.log
应用程序本身没有重新加载选项,我们在需要重新加载或重新启动应用程序时停止应用程序并启动应用程序。
我们使用下面的命令来启动应用程序
nohup connect-standalone ${BASE}/connect-standalone.properties
${BASE}/FluentdSourceConnector.properties >& ${BASE}/stdout.log &
我们使用下面的命令来杀死应用程序
kill -9 <processid>
对于这种情况,我们如何实现日志轮换机制?